那篇获得 450 万阅读量的「Claude Code 101」有了续集。这次的「Claude Code 102」不再停留在基础用法,而是直接进入工程化层面——如何用技能、子智能体和 MCP 把 Claude Code 从一个"聊天助手"变成一个真正的开发系统。对于独立开发者来说,这套体系的价值在于:你一个人也能搭出小团队的协作效率。

先搞清楚一个底层问题:你的上下文窗口到底有多大?

大多数开发者忽略了一个技术细节——有效上下文。

Claude Code 和 Cursor 都宣称支持 200K tokens,但根据 Qodo 的调研,Cursor 为了平衡性能和成本,会在后台进行"静默截断",实际可用的上下文可能只有 70K-120K。而 Claude Code 提供的是原生且稳定的 200K 上下文。

这个差异在处理小脚本时感知不明显,但当你面对大型、高耦合的代码库(比如 Auth 系统与 API、数据库 Schema 之间的联动),上下文的完整性直接决定了模型能不能给出靠谱的建议。

技能(Skills):把你反复说的话固化下来

技能的本质是持久化的"工作流记忆"。

想想你每次开新对话时,是不是都要重复一遍:"我们用 TypeScript,commit 格式是 conventional commits,测试用 Vitest……"。技能就是为了消除这种重复。

实现方式很简单:在 ~/.claude/skills/ 目录下创建包含 YAML 前缀的 SKILL.md 文件。这里有一个设计细节值得注意——Claude 启动时只加载技能的名称和描述(大约 100 词),只有匹配到需求时才加载全文。这种渐进式披露的架构避免了在 System Prompt 里塞一堆东西,保护了宝贵的上下文带宽。

适合做成技能的东西:团队代码审查标准、特定框架的 commit 格式、内部 API 文档规范,或者你个人反复向 AI 解释的编码习惯。

子智能体(Subagents):并行处理与上下文隔离

这是 Claude Code 最具差异化的架构设计。

子智能体是拥有独立上下文窗口、独立提示词和独立工具权限的"临时实例"。它解决的核心痛点是上下文污染——当对话过长(超过窗口的 45%)时,模型的推理能力会明显下降。

运行机制是"委托-执行-总结"模式:

  • 主智能体识别任务
  • 启动子智能体(比如专门负责搜寻代码的 Explore)
  • 子智能体独立完成任务
  • 仅将精炼的总结返回给主智能体

这个设计很实用。主智能体的上下文始终保持干净,不会被搜索过程中的大量中间结果污染。

更进一步,你可以创建自定义子智能体。比如一个 security-reviewer,通过 tools 字段限制它只有读权限、不可写入,专门用于自动化安全审查。对独立开发者来说,这相当于给自己配了一个只读权限的代码审查员。

MCP 连接器:把所有工具拉进同一个界面

MCP 是 AI 时代的"统一外挂接口"。

开发过程中最打断心流的事情之一,就是不断切换上下文:去 GitHub 看 Issue,去 Slack 看讨论,去数据库查数据。MCP 把这些全部打通。

通过 claude mcp add,Claude 可以直接调用 Notion、Jira、GitHub、PostgreSQL 等外部工具。所有的信息获取和操作都在同一个终端界面内完成。对于一人公司来说,这意味着你不需要在五六个标签页之间反复跳转。

三者叠加的复利效应

这三个能力单独看都有用,但叠加起来才是真正的杠杆:

  • Skills 让 Claude 像一个了解你所有习惯的同事
  • Subagents 让它能像技术组长一样分发任务,保持思考清晰
  • MCP 赋予它感知整个工作生态的能力

上手建议

不要贪多。从一个最常用的技能开始——就是你每次都要向 AI 重复解释的那个东西,把它写成 SKILL.md

创建自定义子智能体时,严格限制 tools 权限。防御性编程的思想在这里同样适用:确保 AI 的操作始终在可控范围内。

最后一个容易被忽视的点:子智能体返回给主智能体的总结质量至关重要。如果总结不够精炼,主智能体的上下文照样会被低质量信息淹没,长周期开发到后面就会越来越"糊涂"。这一步容易踩坑,值得花时间调优。