核心工作流:让AI自己记笔记

作者的工具链出人意料地简单:git worktrees + 多终端 + VSCode,没有花哨的编排框架。真正的关键在于一个设计理念——让Codex在工作过程中自动记录和改进自身的工作流程

具体做法是:要求Codex在每次任务执行中自动做笔记、生成辅助工具脚本,并将这些产出提交到代码库中。这些笔记不是写给人看的,而是让Codex在后续会话中"复习"用的,使它能跨会话累积对代码库和任务上下文的理解。

这个思路本质上是在做一种轻量级的持久化记忆,绕开了LLM上下文窗口的限制。对于独立开发者来说,如果你在用Claude Code或Cursor处理复杂项目,可以借鉴类似的方式——让AI把关键决策和上下文写入项目文件,下次对话时自动加载。

把Codex当研究助手用

作者提到一个有意思的场景:在需要探索陌生代码区域时,Codex会自动搜索Slack讨论记录、阅读历史对话、拉取实验分支、筛选有价值的改动,最终生成带来源引用的详尽研究笔记,甚至辅助做出超参数选择等关键决策。

简单说,就是把Codex当成一个"高召回率的研究agent"。它不怕信息量大,也不会嫌枯燥,适合在大量非结构化信息中做初步筛选和整理。这对于需要快速了解新领域或新代码库的独立开发者来说,是一个实际可用的模式。

多子代理并行协作

文章中最激进的部分是关于多agent编排:作者称自己正在转向只与一个主代理对话,由主代理协调多个子agent并行完成研究、编码和数据分析任务,从而大幅减少人的上下文切换成本。

坦率地说,这部分的可信度需要打折扣——文章发布时,其提到的新模型上线才不到两小时,很难在这么短的时间内得出可靠结论。但"主代理 + 多子代理"的编排模式本身是真实的趋势,Claude Code的subagent机制、OpenAI的多agent框架都在朝这个方向演进。

组织效率的延伸思考

作者还将这套工作方式上升到组织层面:认为AI可以在无需会议、邮件或人工协调的情况下,整合跨部门、跨人员的隐性知识,降低组织随规模增长而产生的协调成本。这个观点并不新鲜,但对一人公司创业者来说确实点到了一个实际痛点——一个人做多个角色时,信息在不同工作流之间的同步和聚合,本身就是巨大的隐性成本

回到实操层面:不管你用的是Codex、Claude Code还是其他工具,这篇文章里最值得带走的一个动作是——让AI把工作过程中的上下文和决策记录下来,持久化到项目中,供后续会话复用。这比单纯提升单次对话的prompt质量,对长期效率的提升要大得多。