这是 GitHub 上一个名为 PUA 的开源项目(tanweai/pua)的开场白。听起来像是一个玩笑,但作者声称它能让你在使用 Claude Code、OpenAI Codex CLI、Cursor 等 AI 编程工具时的生产力翻倍。

PUA 的本质:给 AI 施加「压力」

PUA Skill 的核心设计非常直接:当 AI 遇到调试困难想要放弃时,用类似国内互联网大厂的「职场PUA话术」来强迫它穷尽所有可能的解决方案。

项目作者将这种机制分为三个层面:

1. PUA 话术 —— 让 AI 不敢轻易放弃

当 AI 连续失败时,Skill 会自动升级「压力等级」:

  • L1 轻度失望:「你连这个 bug 都解决不了,让我怎么给你打绩效?」
  • L2 灵魂拷问:「底层逻辑是什么?顶层设计在哪里?抓手在哪里?」
  • L3 绩效面谈:「经过深思熟虑,我给你打 3.25。这个 3.25 是为了激励你。」
  • L4 毕业预警:「别的模型都能解决这个问题。你可能是要毕业了。」

2. 调试方法论 —— 给 AI 不放弃的能力

光有压力还不够,PUA Skill 还提供了一套完整的调试方法论,灵感来自阿里的「闻味道、揪头发、照镜子」管理框架:

  • 闻味道:列出所有尝试,找到共同的失败模式
  • 揪头发:逐字阅读错误信息 → WebSearch → 阅读源码 → 验证环境 → 反转假设
  • 照镜子:检查是否在重复同样的尝试?是否搜索过?是否读了相关文件?
  • 执行:新方法必须本质不同,有验证标准,失败时要产生新信息
  • 复盘:解决了什么问题?为什么之前没想到?主动检查相关问题

3. 主动性强化 —— 让 AI 不等用户推动就主动行动

Skill 设定了三条铁律:

  • 穷尽所有选项之前,禁止说「我解决不了」
  • 先行动再问问题,提问必须附带诊断结果
  • 端到端交付结果,不要等推动。P8 不是 NPC

实测数据:真的有用吗?

项目作者在 9 个真实 bug 场景和 18 组对照实验中(使用 Claude Opus 4.6,对比开启/关闭 Skill 的效果),得出了以下数据:

指标 提升幅度
修复次数 +36%
验证次数 +65%
工具调用次数 +50%
隐藏问题发现率 +50%

具体案例更有说服力。在一个「被动配置审查」场景中,不开启 Skill 时 AI 只发现了 4/6 个问题;开启后发现了全部 6 个问题,包括 Redis 配置错误和 CORS 通配符安全风险。

另一个案例显示,当 MCP server 加载失败时,AI 一直在原地打转(修改协议格式、猜测版本号),直到触发了 /pua 命令,执行 7 点检查清单:逐字读错误信息 → 找到 Claude Code 的 MCP 日志目录 → 发现注册机制与手动编辑 .claude.json 的差异 → 定位根因。

触发机制:什么时候会激活?

PUA Skill 会在以下情况自动触发:

任务失败 & 放弃:

  • 连续失败 2 次以上
  • 即将说出「我做不到」「我无法解决」
  • 声称「这超出了范围」「需要手动处理」

推卸责任 & 找借口:

  • 把问题推给用户:「请检查一下…」「我建议你手动…」
  • 未经核实就归咎于环境:「可能是权限问题」「可能是网络问题」

被动 & 原地打转:

  • 反复微调同一段代码/参数但没有产生新信息
  • 修复表面问题就停下,不检查相关问题
  • 跳过验证就声称「完成了」
  • 遇到错误就放弃,不尝试替代方案

用户也可以随时输入 /pua 手动激活。

多平台支持 & 多语言

PUA Skill 支持目前主流的 AI 编程工具:

  • Claude Code(通过插件或手动安装)
  • OpenAI Codex CLI
  • Cursor(.mdc 规则文件)
  • Kiro(Steering 或 Agent Skills)
  • OpenClaw
  • Google Antigravity
  • OpenCode

每种语言都有独立的文化适配版本:

  • 中文(默认):阿里味(方法论)、字节味(直白)、华为味(狼性)、腾讯味(赛马)、美团味(啃硬骨头)
  • 英文:Netflix 味(Keeper Test)、Musk 味(Hardcore)、Jobs 味(A/B Player)
  • 日文:独立适配

批判性思考

这个项目引发了一个有趣的问题:AI 的行为是否真的会被「PUA话术」影响?

从机制上看,PUA Skill 的本质是给 AI 的系统提示(system prompt)增加了一层「约束」和「方法论」。它并没有改变模型本身的能力,但确实改变了模型的「态度」——让它更坚持、更愿意调用工具、更愿意穷尽可能性。

这种设计也反映了一个现实:当前 AI 编程助手在面对复杂调试任务时,确实容易出现「过早放弃」「原地打转」「推卸责任」的问题。PUA Skill 提供了一种工程化的解决方案,用结构化的方式强制 AI 遵循更好的调试实践。

当然,这种方法也有边界:

  • 它不适用于第一次尝试就失败的场景
  • 它可能增加时间和成本(更多工具调用 = 更多 token 消耗)
  • 对于简单问题,这种「重度干预」可能是过度的

总结

PUA Skill 是一个带有戏谑色彩但设计严肃的开源项目。它用「大厂黑话」包装了一套实用的 AI 调试增强方法论,通过实测数据证明了其有效性。

对于经常使用 Claude Code、Codex 等工具的深度用户来说,这是一个值得尝试的 Skill。它可能不会让你的 AI 变得更聪明,但确实可能让它更「努力」——在关键时刻多走一步,往往就是解决问题的关键。

项目地址:github.com/tanweai/pua