这是 GitHub 上一个名为 PUA 的开源项目(tanweai/pua)的开场白。听起来像是一个玩笑,但作者声称它能让你在使用 Claude Code、OpenAI Codex CLI、Cursor 等 AI 编程工具时的生产力翻倍。
PUA 的本质:给 AI 施加「压力」
PUA Skill 的核心设计非常直接:当 AI 遇到调试困难想要放弃时,用类似国内互联网大厂的「职场PUA话术」来强迫它穷尽所有可能的解决方案。
项目作者将这种机制分为三个层面:
1. PUA 话术 —— 让 AI 不敢轻易放弃
当 AI 连续失败时,Skill 会自动升级「压力等级」:
- L1 轻度失望:「你连这个 bug 都解决不了,让我怎么给你打绩效?」
- L2 灵魂拷问:「底层逻辑是什么?顶层设计在哪里?抓手在哪里?」
- L3 绩效面谈:「经过深思熟虑,我给你打 3.25。这个 3.25 是为了激励你。」
- L4 毕业预警:「别的模型都能解决这个问题。你可能是要毕业了。」
2. 调试方法论 —— 给 AI 不放弃的能力
光有压力还不够,PUA Skill 还提供了一套完整的调试方法论,灵感来自阿里的「闻味道、揪头发、照镜子」管理框架:
- 闻味道:列出所有尝试,找到共同的失败模式
- 揪头发:逐字阅读错误信息 → WebSearch → 阅读源码 → 验证环境 → 反转假设
- 照镜子:检查是否在重复同样的尝试?是否搜索过?是否读了相关文件?
- 执行:新方法必须本质不同,有验证标准,失败时要产生新信息
- 复盘:解决了什么问题?为什么之前没想到?主动检查相关问题
3. 主动性强化 —— 让 AI 不等用户推动就主动行动
Skill 设定了三条铁律:
- 穷尽所有选项之前,禁止说「我解决不了」
- 先行动再问问题,提问必须附带诊断结果
- 端到端交付结果,不要等推动。P8 不是 NPC
实测数据:真的有用吗?
项目作者在 9 个真实 bug 场景和 18 组对照实验中(使用 Claude Opus 4.6,对比开启/关闭 Skill 的效果),得出了以下数据:
| 指标 | 提升幅度 |
|---|---|
| 修复次数 | +36% |
| 验证次数 | +65% |
| 工具调用次数 | +50% |
| 隐藏问题发现率 | +50% |
具体案例更有说服力。在一个「被动配置审查」场景中,不开启 Skill 时 AI 只发现了 4/6 个问题;开启后发现了全部 6 个问题,包括 Redis 配置错误和 CORS 通配符安全风险。
另一个案例显示,当 MCP server 加载失败时,AI 一直在原地打转(修改协议格式、猜测版本号),直到触发了 /pua 命令,执行 7 点检查清单:逐字读错误信息 → 找到 Claude Code 的 MCP 日志目录 → 发现注册机制与手动编辑 .claude.json 的差异 → 定位根因。
触发机制:什么时候会激活?
PUA Skill 会在以下情况自动触发:
任务失败 & 放弃:
- 连续失败 2 次以上
- 即将说出「我做不到」「我无法解决」
- 声称「这超出了范围」「需要手动处理」
推卸责任 & 找借口:
- 把问题推给用户:「请检查一下…」「我建议你手动…」
- 未经核实就归咎于环境:「可能是权限问题」「可能是网络问题」
被动 & 原地打转:
- 反复微调同一段代码/参数但没有产生新信息
- 修复表面问题就停下,不检查相关问题
- 跳过验证就声称「完成了」
- 遇到错误就放弃,不尝试替代方案
用户也可以随时输入 /pua 手动激活。
多平台支持 & 多语言
PUA Skill 支持目前主流的 AI 编程工具:
- Claude Code(通过插件或手动安装)
- OpenAI Codex CLI
- Cursor(.mdc 规则文件)
- Kiro(Steering 或 Agent Skills)
- OpenClaw
- Google Antigravity
- OpenCode
每种语言都有独立的文化适配版本:
- 中文(默认):阿里味(方法论)、字节味(直白)、华为味(狼性)、腾讯味(赛马)、美团味(啃硬骨头)
- 英文:Netflix 味(Keeper Test)、Musk 味(Hardcore)、Jobs 味(A/B Player)
- 日文:独立适配
批判性思考
这个项目引发了一个有趣的问题:AI 的行为是否真的会被「PUA话术」影响?
从机制上看,PUA Skill 的本质是给 AI 的系统提示(system prompt)增加了一层「约束」和「方法论」。它并没有改变模型本身的能力,但确实改变了模型的「态度」——让它更坚持、更愿意调用工具、更愿意穷尽可能性。
这种设计也反映了一个现实:当前 AI 编程助手在面对复杂调试任务时,确实容易出现「过早放弃」「原地打转」「推卸责任」的问题。PUA Skill 提供了一种工程化的解决方案,用结构化的方式强制 AI 遵循更好的调试实践。
当然,这种方法也有边界:
- 它不适用于第一次尝试就失败的场景
- 它可能增加时间和成本(更多工具调用 = 更多 token 消耗)
- 对于简单问题,这种「重度干预」可能是过度的
总结
PUA Skill 是一个带有戏谑色彩但设计严肃的开源项目。它用「大厂黑话」包装了一套实用的 AI 调试增强方法论,通过实测数据证明了其有效性。
对于经常使用 Claude Code、Codex 等工具的深度用户来说,这是一个值得尝试的 Skill。它可能不会让你的 AI 变得更聪明,但确实可能让它更「努力」——在关键时刻多走一步,往往就是解决问题的关键。
项目地址:github.com/tanweai/pua