从「找 App」到「自己造」:第一次架构跃迁
移动互联网训练了我们一套条件反射:遇到问题 → 找 App → 订阅会员。这套逻辑的底层假设是——能力被封装在应用里,你只能花钱买。
OpenClaw 打破了这个假设。它不是一个「做某件事的工具」,而是一个让你自己定义能力边界的运行时环境。
举个例子:我需要一个 RSS 阅读器,传统路径是订阅 Feedly、Inoreader,每年几十美元。但在 OpenClaw 上,我用 30 分钟搞定了:
- 能力定义:抓取 RSS → 筛选文章 → 生成摘要 → 定时推送
- 编排实现:写一个脚本 + 配置 cron 任务
- 成本:0 元(模型调用成本忽略不计)
这不是「省钱」的问题。说白了,这是从 SaaS 的租户变成自己系统的架构师——从「消费能力」到「生产能力」的身份切换。
模型选型的「技术债」陷阱:便宜的真不一定便宜
OpenClaw 支持几乎所有主流模型:GPT、Claude、Gemini、DeepSeek、Kimi、MiniMax……看起来是自由,实际上是决策复杂度爆炸。
两周内测了 7 个模型,烧掉 3000 多块,结论是:便宜的模型会积累技术债。
国产模型(DeepSeek V3.2、MiniMax M2.1)确实能跑通大部分任务,但生成的代码有隐性缺陷:
- 逻辑能跑,但缺少边界处理
- 能实现功能,但缺少可维护性设计
- 短期可用,长期暴雷
这就像盖房子——便宜的包工队能把楼盖起来,但地基、钢筋、防水都埋了雷。住半年不出事,住两年漏水开裂。
GPT-5.3 Codex 的优势不是「更聪明」,而是「更工程化」:异常处理更完善,会主动考虑性能和安全,输出更接近生产级代码。
最终的模型策略是一个典型的分层架构:
- 主力模型:GPT-5.3 Codex(核心开发)
- 辅助模型:Gemini 3 Pro(轻量任务)
- 本地模型:Kimi K2.5(离线场景)
不同层级用不同组件,追求整体最优而非局部最优。通过 ZenMux 统一接入,不用每个平台单独订阅,切换模型丝滑得很。
(顺带一提,Opus 4.6 是真的好用,但也是真的贵。)
Subagents:被严重低估的「微服务编排」能力
OpenClaw 最被低估的能力是 Subagents(子代理协作)。如果你熟悉微服务架构,这个概念秒懂:主代理负责任务拆解和调度,子代理各自负责独立模块,并行执行,最后汇总结果。
实战案例——重构一个历史项目,涉及代码审计、依赖升级、性能优化、文档生成四个维度。传统方式是串行执行,一个模型一步步磨完。但通过 Subagents:
- 子代理 A(Claude Opus 4.6):负责代码审计,擅长发现逻辑漏洞
- 子代理 B(GPT-5.3 Codex):负责重构实现,擅长工程化输出
- 子代理 C(Gemini 3 Pro):负责文档生成,速度快成本低
结果:原本 2 小时的活,20 分钟干完。
这不只是「快」的问题,这是架构设计带来的质变。让合适的模型干合适的事,比让一个模型干所有事强太多了。
本地部署:数据主权才是终极安全感
OpenClaw 支持云端部署,主流云服务商都有镜像,但我最终选了 Mac mini 本地部署。原因很简单:数据主权。
云端部署意味着对话记录、文件索引、个人习惯全存在别人的服务器上。理论上他们承诺不看,但架构师的直觉是:能力边界决定信任边界。
本地部署的好处:
- 数据完全可控:所有记忆、索引都在本地
- 权限自主管理:随时备份、迁移、销毁
- 网络隔离:敏感任务可以断网执行(通过 Ollama 本地模型)
这是典型的零信任架构思维——不依赖外部承诺,通过架构设计保障安全。
不过我依然保留了一台 VPS 作为前线试验场。很多方案先在 VPS 上跑一遍,觉得稳了再迁移到本地,类似灰度发布的思路。
OpenClaw 的本质:AI 时代的个人操作系统
用了两周下来,最大的感受是:OpenClaw 不是一个工具,而是一个运行时环境。就像 Linux 不是用来「做某件事」的,而是用来「运行你想做的任何事」的基础设施。
它的价值不在于「它能做什么」,而在于「它能让你定义自己想做什么」。对于想做一人公司的人来说,这意味着你不用再等某个 App 出现来满足需求——你可以自己编排出这个能力。
当然,OpenClaw 目前还不成熟,bug 不少,文档也不完善。但它代表了一个清晰的方向:AI 从「工具」进化为可编排的「系统组件」。对于独立开发者和超级个体来说,核心竞争力可能不再是掌握更多工具,而是拥有更好的架构思维——知道怎么把这些 AI 组件编排成属于自己的生产力系统。