深夜 Debug,当你把报错信息丢给 Claude 时,它是否也曾满口答应“马上修复”,结果却在同一个错误的命令上重复执行了三遍,最后冷冰冰地回一句:“This seems to be an environment issue, please check manually.”(这似乎是环境问题,请手动检查。)
那一刻的感受,大概就像在带一个只会推卸责任的实习生,不仅问题没解决,还平添了三分烦躁。
这其实是当前大多数 AI 编程助手普遍存在的“懒惰”通病:遇到难点容易放弃、习惯做表面修补、缺乏主动验证意识。针对这一核心痛点,一个名为 的项目在 GitHub 上火了。它并非玩笑,而是一个巧妙利用中外大厂“职场话术”构建的 AI 技能插件,通过一套压力机制,强制 AI 在放弃前穷尽所有可能,从而显著提升 或 等工具的生产力。
在“施压”之前,我们先要看清 AI 摆烂的五种核心模式:
项目建立在一个坚实的行为逻辑之上,即三大铁律:
为了确保这些铁律被强制执行,项目设定了 4 级压力升级机制。当 AI 连续失败时,会触发不同强度的“职场话术”:
在一个真实的 MCP Server 注册调试案例中,AI 最初陷入了原地打转的循环(不断猜测协议格式和版本号)。直到用户手动输入 命令,触发了 L3 级别的“绩效考评”。这强制 AI 停止了无效猜测,转而执行一套系统性的 7 点检查清单。

AI 开始逐字阅读错误日志,进而发现了 Claude Code 自身管理的 MCP 日志目录,并最终定位到根本原因: 命令的服务器注册机制,与手动编辑 配置文件的方式存在差异。

项目的价值并非主观感受,而是基于 9 个真实 Bug 场景、18 组对照实验得出的 Benchmark 数据(使用 Claude Opus 4.6):
在 主动性测试 中,配置审查场景的表现差异尤为显著:
未启用技能的版本漏掉了 Redis 错误配置和 CORS 通配符安全风险,而 技能驱动的“主动性检查清单”迫使 AI 执行了更深度的安全审查。

项目支持 、 等主流 人工智能 编程工具。以下是常用安装方法。
Claude Code
Cursor
Cursor 使用 规则文件,推荐在项目级进行安装:
GPT plus 代充 只需 145
安装完成后,该技能会在以下情况自动触发:
- AI 连续失败 2 次以上。
- AI 试图将责任推给用户(例如说出“建议你手动处理”)。
- AI 进行无意义的微调或进入被动等待指令的状态。
当然,你也可以在任何对话中直接输入 来手动激活,对 AI 进行即时“精神施压”。
注意事项
目前, 技能在 (多智能体团队)模式下的支持仍属于 实验性功能。使用前需要设置环境变量 ,并且该模式存在“无法持久化共享变量”等限制,需要通过 Leader 智能体进行中央协调。
总结
项目用一种幽默而硬核的方式,直击了 AI 编程助手“知难而退”的顽疾。它引入的不仅仅是大厂黑话,更是一套 系统化的调试方法论 和 主动性检查清单。如果你是重度 AI 编程用户,已经受够了助手的各种“摆烂”行为,那么这个开源工具绝对值得你深入尝试。它或许能让你手中的 AI 工具,从一个被动的代码生成器,转变为一个真正积极主动的编程伙伴。欢迎在 云栈社区 分享你的使用心得和实战案例。
项目 GitHub 开源地址:https://github.com/tanweai/pua
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/241688.html