从"一问一答"到"团队协作"
我们先用一个场景来理解这件事。
假设你的程序出了 bug,用户反馈说"启动后马上就退出"。传统方式是让 AI 去查原因,它会一条路走到黑——猜一个原因,试一下,不行再换。效率不高,还容易钻牛角尖。
但如果你有一个 AI 团队呢?你可以同时派 5 个 AI 去调查 5 个不同的方向:
- 一个查内存问题
- 一个查配置文件
- 一个查依赖版本
- 一个查网络连接
- 一个查日志系统
更关键的是,这 5 个 AI 还会互相辩论。A 说"我觉得是内存问题",B 会反驳"你的证据不充分,我这边发现日志里有明显的配置错误"。就像一群工程师在白板前讨论,互相质疑、互相验证,最后收敛到真正的答案。
换句话说,你从"跟一个助手对话"变成了"管理一个小型项目组"。
它和之前的 Subagent 有什么不同?
Claude Code 之前已经有 Subagent 功能了,也能让 AI 并行处理多个子任务。但两者的本质区别很大。
Subagent 更像侦察兵——你派它出去,它干完了把结果交回来,任务结束。侦察兵之间互不通信,也不会质疑对方的情报。
Agent Teams 更像一个真正的项目组——每个成员都是独立个体,有自己的上下文记忆,可以直接给彼此发消息,可以开会讨论,可以反驳对方的观点。
实际选择也很简单:简单任务用 Subagent,便宜高效;需要深度讨论、互相验证的复杂任务用 Agent Teams。
三分钟上手
这是实验性功能,需要手动开启。在配置文件里加一行:
{
"env": {
"CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1"
}
}
具体路径是 ~/.claude/settings.json。
然后直接用自然语言创建团队就行,比如:
创建一个团队来评审这个 PR,我要三个评审员:一个专门找安全漏洞,一个关注性能影响,一个检查测试覆盖率。
创建完成后,你会看到一个 Team Lead(团队领导)和三个 Teammates(队友)。他们共享任务列表,各干各的活,还能互相沟通。
这里有个很实用的功能叫 delegate mode,按 Shift+Tab 切换。开启后,你作为 Team Lead 只负责协调,不干具体的活,全部交给队友——就像一个真正的项目经理。
最有意思的玩法:科学辩论法调试
想象这个场景:用户报告 app 发一条消息后就退出了,你完全不确定原因。
传统方法是猜一个、试一个,可能折腾半天。用 Agent Teams 的思路是:创建 5 个队友,每个人调查一个不同的假设,然后让他们互相交流,尝试反驳对方的理论。
对话可能是这样的:
- A:"我觉得是退出代码写错了。"
- B:"不对,我查了代码,退出逻辑没问题,但消息队列有异常。"
- C:"等等,我这边发现日志显示是网络超时触发的……"
他们会像科学家辩论一样,不断用证据推翻或支持假设,最后收敛到一个最有说服力的结论。你只需要喝杯咖啡,等结果就好。
目前的限制
既然是实验功能,坑肯定有:
- 不支持会话恢复:关掉终端,队友就没了
- 每次只能管一个团队:不能同时开多个项目组
- 成本比较高:每个队友都是独立的 Claude 实例,Token 消耗不小
- 可能会抢文件:两个队友同时改同一个文件会出问题
- 需要调试耐心:实际体验可能需要多次尝试才能跑顺
官方的建议是,新手先从"不写代码"的任务开始练手——比如让团队做代码评审、做调研分析。等熟悉了工作模式,再尝试多人协作开发。
实操步骤
如果你想现在就试:
- 在
~/.claude/settings.json加上CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS: "1" - 打开 Claude Code,输入"创建一个 3 人代码评审团队"
- 避免让多个队友同时改同一个文件
- 给队友足够的上下文——它们不会继承你的对话历史
对独立开发者意味着什么
这个功能让我看到了一个趋势:AI 辅助开发正在从"你问我答"走向"主动协作"。AI 不再只是被动响应你的指令,而是能自己分工、讨论、互相质疑。你的角色更像导演或产品经理——定义问题、做关键决策、把控方向,剩下的交给 AI 团队去调研、实现、测试、互相 review。
"1 个人类 + N 个 AI"的工作模式,Agent Teams 算是迈出了实质性的一步。功能还在早期,但方向已经很清晰了。建议先拿一个不太紧急的 PR review 任务练手,感受一下"管理 AI 团队"是什么体验。