四层 AI 开发架构
Uber 的 AI 开发体系分成四层:底层是内部 AI 平台,往上是上下文数据源,再上面是行业工具(Claude Code、Cursor、IntelliJ 这些),最顶层是专门的 Agent——负责测试、代码审查这类特定任务。
这个分层思路其实一人公司也能借鉴。你不需要搭一个完整平台,但把「基础能力」「上下文」「工具」「专用 Agent」这四层想清楚,整个 AI 工作流就不会乱。
Claude Code 的增长势头碾压 IDE 工具
一个很有意思的数据点:Claude Code 的使用率三个月内从 32% 飙到 63%(2025年12月到2026年2月),而 Cursor、IntelliJ 这类 IDE 工具的增长已经停滞了。
这说明什么?命令行 Agent 的使用体验正在超过 IDE 插件。对独立开发者来说,如果你还没试过 Claude Code 这类 CLI Agent,现在是时候了。它的好处是你可以同时开多个 Agent 并行跑任务,不用守在 IDE 里一行一行盯着。
从单线程写代码到编排多个 Agent
Uber 内部观察到一个明显的行为转变:工程师不再是坐在 IDE 里一个文件一个文件地写,而是变成了同时调度多个 Agent 并行工作。一个 Agent 在写功能代码,另一个在跑测试,还有一个在做代码审查。
这种「编排者」心态特别适合一人公司。你一个人干不了三个人的活,但你可以同时指挥三个 Agent 干活。Uber 为此专门建了一个叫 Minion 的后台 Agent 平台,让 Agent 在后台跑,不占用开发者的注意力。
我们虽然不需要建平台,但思路是一样的:把能拆的任务拆出去,让 Agent 在后台跑,你只管最后审结果。
Uber 造的几个内部工具值得关注
- Code Inbox:AI 生成的代码多了,PR 也多了,噪音就大了。这个工具做的是智能 PR 路由,帮你过滤出真正需要你看的东西
- uReview:AI 代码审查,但只给高信号的评论,不是那种 lint 级别的废话
- Autocover:自动生成单元测试,每月产出 5000+ 个测试用例
- Shepherd:管理大规模代码迁移,端到端自动化
这几个工具的设计理念很值得抄。特别是 Autocover——如果你是独立开发者,用 AI 自动补测试这件事投入产出比极高,省下来的时间可以拿去做产品。
成本是个真问题
Uber 的 AI 相关成本比 2024 年涨了 6 倍。Token 成本优化已经成了他们的优先事项。
这对一人公司更关键。你没有 Uber 的预算,所以从一开始就要想清楚哪些任务值得花 token,哪些不值得。比如让 Agent 写样板代码、生成测试、做代码审查,这些 ROI 很高;但让 Agent 反复调试一个微妙的 bug,可能你自己花十分钟看一眼比烧几万 token 更划算。
推广 AI 工具最有效的方式
Uber 发现一个反直觉的结论:自上而下的强制推广效果不如工程师之间口口相传。真正让 AI 工具铺开的,是一个工程师用 Agent 解决了一个实际问题,然后跟同事说"你试试这个"。
这跟我的体感一致。你不需要看完所有教程再开始用,找一个你手头正在做的、重复性高的任务,让 Agent 试着跑一遍。一旦你亲眼看到它能干活,后面的事情就自然了。
Uber 这套实践最大的启示不是它有多复杂,而是方向很明确:开发者的角色正在从"写代码的人"变成"指挥 Agent 写代码的人"。对一人公司来说,这个转变来得越早,杠杆效应越大。