成本逻辑:API 计价 vs 订阅制

API 是 token 计价,每一轮对话、每一次工具调用都在烧钱。当 Agent 开始长时间在线、自主运行、反复交互时,成本曲线会指数级上升。

订阅制是固定月费。Claude Max 每月 $200,不限量使用 Opus 4.6。两种计价模型在"偶尔对话"场景下差异不大,但在"Agent 持续运行"场景下会彻底分离。

这套方案的做法很直接:不走 API,改用订阅制 + 官方 CLI,再通过 OpenClaw 把 CLI 包装成可调用的服务接口。

架构设计:CLI 负责思考,OpenClaw 负责行动

整个系统的核心哲学一句话就能说清楚——把 CLI 变成 API。

Claude CLI 只负责推理和思考,OpenClaw 负责执行动作。这种分离带来几个实际好处:不需要 TTY 模拟,不需要跳过权限确认弹窗,也不会踩 CLI Agent 模式下的各种坑。

最终得到的是一个具备完整能力的 Agent:对话、文件读写、Shell 指令执行、浏览器操作、持久记忆,所有请求都走官方 binary。

为什么一定要跑在 EC2 上

当一个 Agent 拥有读写文件、执行 Shell、操作浏览器的权限,它就不再是聊天工具。如果放在本机运行,等于把 SSH keys、密码管理器、浏览器 session 全部暴露给 AI。

EC2 是一台可销毁的干净宿主。出问题直接 terminate 重建,没有残留风险。AWS Free Tier 足够覆盖一台轻量实例的成本,所以整套方案的固定支出就是 Claude Max 的 $200/月。

实作中最大的坑:E2BIG

部署过程中最棘手的问题不是模型,而是 Linux 本身。CLI 参数长度有系统上限,而 OpenClaw 的 system prompt 加上 tool schema 的体积会直接撑爆这个限制,触发 E2BIG 错误。

解法是把 prompt 改走 stdin 传入,绕过命令行参数长度限制,系统瞬间稳定。

另一个需要处理的点是 streaming。claude --print 并不是真正的 streaming 输出,解决方案是用 simulated stream 返回 SSE,实测稳定性没有问题。

此外,OpenClaw 不读 OPENAI_BASE_URL 环境变量,必须通过 models.providers 手动注册自定义模型,这一步容易被忽略。

一键部署:30 分钟内完成

这套方案最初的部署时间大约 2.5 小时,经过流程脚本化之后,已经压缩到 30 分钟以内。完整步骤只有四步:

  1. 开一台 EC2 实例
  2. 订阅 Claude Max
  3. 创建一个 Telegram Bot 作为交互入口
  4. 执行 bash setup.sh

整个部署脚本和配置文件已开源在 GitHub 上(仓库:openclaw-claude-proxy)。

真正改变的不是成本,而是交互模式

固定成本当然重要,但更本质的变化在于人和 AI 的关系发生了反转。

以前的模式是:你打开电脑,主动使用 AI。现在的模式是:AI 长期在线,等你随时呼叫。通过 Telegram Bot,你可以在手机上随时和一个满血 Opus 4.6 Agent 对话,它能读文件、跑命令、操作浏览器,而不只是回复文字。

模型从工具变成了协作者。

对于独立开发者和一人公司来说,$200/月换一个 24/7 在线、具备完整执行能力的 AI Agent,这笔账值得认真算一算——尤其是当你的工作流已经开始依赖 Agent 持续运行,而不只是偶尔问几个问题的时候。