从「找 App」到「自己造」:第一次架构跃迁

移动互联网训练了我们一套条件反射:遇到问题 → 找 App → 订阅会员。这套逻辑的底层假设是——能力被封装在应用里,你只能花钱买。

OpenClaw 打破了这个假设。它不是一个「做某件事的工具」,而是一个让你自己定义能力边界的运行时环境。

举个例子:我需要一个 RSS 阅读器,传统路径是订阅 Feedly、Inoreader,每年几十美元。但在 OpenClaw 上,我用 30 分钟搞定了:

  • 能力定义:抓取 RSS → 筛选文章 → 生成摘要 → 定时推送
  • 编排实现:写一个脚本 + 配置 cron 任务
  • 成本:0 元(模型调用成本忽略不计)

这不是「省钱」的问题。说白了,这是从 SaaS 的租户变成自己系统的架构师——从「消费能力」到「生产能力」的身份切换。

模型选型的「技术债」陷阱:便宜的真不一定便宜

OpenClaw 支持几乎所有主流模型:GPT、Claude、Gemini、DeepSeek、Kimi、MiniMax……看起来是自由,实际上是决策复杂度爆炸。

两周内测了 7 个模型,烧掉 3000 多块,结论是:便宜的模型会积累技术债

国产模型(DeepSeek V3.2、MiniMax M2.1)确实能跑通大部分任务,但生成的代码有隐性缺陷:

  • 逻辑能跑,但缺少边界处理
  • 能实现功能,但缺少可维护性设计
  • 短期可用,长期暴雷

这就像盖房子——便宜的包工队能把楼盖起来,但地基、钢筋、防水都埋了雷。住半年不出事,住两年漏水开裂。

GPT-5.3 Codex 的优势不是「更聪明」,而是「更工程化」:异常处理更完善,会主动考虑性能和安全,输出更接近生产级代码。

最终的模型策略是一个典型的分层架构:

  • 主力模型:GPT-5.3 Codex(核心开发)
  • 辅助模型:Gemini 3 Pro(轻量任务)
  • 本地模型:Kimi K2.5(离线场景)

不同层级用不同组件,追求整体最优而非局部最优。通过 ZenMux 统一接入,不用每个平台单独订阅,切换模型丝滑得很。

(顺带一提,Opus 4.6 是真的好用,但也是真的贵。)

Subagents:被严重低估的「微服务编排」能力

OpenClaw 最被低估的能力是 Subagents(子代理协作)。如果你熟悉微服务架构,这个概念秒懂:主代理负责任务拆解和调度,子代理各自负责独立模块,并行执行,最后汇总结果。

实战案例——重构一个历史项目,涉及代码审计、依赖升级、性能优化、文档生成四个维度。传统方式是串行执行,一个模型一步步磨完。但通过 Subagents:

  • 子代理 A(Claude Opus 4.6):负责代码审计,擅长发现逻辑漏洞
  • 子代理 B(GPT-5.3 Codex):负责重构实现,擅长工程化输出
  • 子代理 C(Gemini 3 Pro):负责文档生成,速度快成本低

结果:原本 2 小时的活,20 分钟干完。

这不只是「快」的问题,这是架构设计带来的质变。让合适的模型干合适的事,比让一个模型干所有事强太多了。

本地部署:数据主权才是终极安全感

OpenClaw 支持云端部署,主流云服务商都有镜像,但我最终选了 Mac mini 本地部署。原因很简单:数据主权

云端部署意味着对话记录、文件索引、个人习惯全存在别人的服务器上。理论上他们承诺不看,但架构师的直觉是:能力边界决定信任边界。

本地部署的好处:

  • 数据完全可控:所有记忆、索引都在本地
  • 权限自主管理:随时备份、迁移、销毁
  • 网络隔离:敏感任务可以断网执行(通过 Ollama 本地模型)

这是典型的零信任架构思维——不依赖外部承诺,通过架构设计保障安全。

不过我依然保留了一台 VPS 作为前线试验场。很多方案先在 VPS 上跑一遍,觉得稳了再迁移到本地,类似灰度发布的思路。

OpenClaw 的本质:AI 时代的个人操作系统

用了两周下来,最大的感受是:OpenClaw 不是一个工具,而是一个运行时环境。就像 Linux 不是用来「做某件事」的,而是用来「运行你想做的任何事」的基础设施。

它的价值不在于「它能做什么」,而在于「它能让你定义自己想做什么」。对于想做一人公司的人来说,这意味着你不用再等某个 App 出现来满足需求——你可以自己编排出这个能力。

当然,OpenClaw 目前还不成熟,bug 不少,文档也不完善。但它代表了一个清晰的方向:AI 从「工具」进化为可编排的「系统组件」。对于独立开发者和超级个体来说,核心竞争力可能不再是掌握更多工具,而是拥有更好的架构思维——知道怎么把这些 AI 组件编排成属于自己的生产力系统。