这两件事指向同一个信号:当业务目标可以被精准量化时,AI 驱动的自动化闭环已经可以替代大量重复性脑力劳动。
他具体做了什么
这位增长工程师的核心逻辑是把「看数据 → 发现问题 → 改文案 → 上线测试」这个周期压缩到极致。拆解下来有四个关键环节:
实验选题自动化:从 CSV 数据文件出发,自动筛选广告表现不佳的投放,针对性做精准迭代,而非盲目铺量。
素材批量生成:AI 设计大量 A/B 测试组合,通过 Figma MCP 在几分钟内生成数百个广告素材。手工一张张做图的时代结束了。
数据反馈实时化:通过 Meta Ads MCP Server 直接对接广告平台数据,消除了传统流程中「投放→等数据→导出→分析」的滞后环节。
实验记忆机制:系统自动记录过去所有实验假设和结果,防止重复跑相同的实验组合,确保每一轮迭代都在前一轮基础上推进。
这套流程的本质是一个全自动的 PDCA 循环,而且转速极快。
为什么他能成功,而不是高速制造垃圾
这是最值得深思的一层。
大模型让「计划」和「执行」的成本趋近于零。传统 PDCA 像一辆老式单车,蹬一圈、看一眼、再调方向。AI 加持后,这辆车装上了自动驾驶,一秒跑 100 次循环。
但跑得快不等于跑得对。
Claude 增长工程师和 Karpathy 能成功的前提是:他们的业务目标有确定性的验证机制。广告平台的 ROAS(投入产出比)是绝对客观的数字,实验的 benchmark 也是硬指标。有了这种量化反馈,AI 的高速迭代才是在逼近最优解,而不是在高速制造屎山。
这个思路很实用,也给了我们一个判断标准——凡是输入可结构化、结果可量化验证的工作,都有可能搭建类似的自动化闭环。
一人公司可以复用的场景
顺着这个逻辑往下想,还有不少场景天然满足「输入结构化 + 结果可验证」的条件:
代码质量的全自动提升:让 AI 给老代码批量写单元测试,用测试通过率和覆盖率作为验证指标。程序员最讨厌的苦活,变成了睡梦中的基建。
信息套利与情报整理:用 Playwright 脚本定时抓取 Hacker News、特定领域 KOL 的动态,AI 自动筛选和整理最有商业价值的信息。利用时差优势,你睡觉时系统在工作。
自媒体增长实验:每天自动拉取后台数据,分析内容表现,生成下一轮发布策略的 A/B 测试方案,用阅读量、转化率等指标验证效果。
广告素材迭代:即使没有 Anthropic 的资源,中小团队也可以用 AI 生成素材变体 + 广告平台 API 自动投放 + 数据回收的轻量版闭环。
给一人公司的实操建议
如果你想把这套逻辑落地,核心是三步:
先找到你业务中有明确量化指标的环节。不是所有工作都适合自动化,优先选 ROAS、转化率、测试通过率这类有硬数字的场景。
用 MCP 和 API 打通数据链路。自动化的瓶颈往往不在 AI 的能力,而在数据的流通。Figma MCP、Meta Ads MCP 这类工具的价值在于消除人工搬运数据的环节。
给系统加上记忆。记录每次实验的假设和结果,让 AI 在历史数据上做增量优化,而非每次从零开始。这是从「用 AI 干活」到「让 AI 自己进化」的关键一步。
一个人干十个人的活,前提不是你比别人聪明十倍,而是你把验证闭环搭对了,让 AI 在你睡觉时替你跑循环。