为什么选 GitHub Codespaces
多数 OpenClaw 教程的前置条件是一台闲置的 Mac mini,或者在阿里云、腾讯云上开一台服务器长期挂着。对于只想验证可行性的人来说,这个成本门槛不合理。GitHub Codespaces 本质上是一台浏览器里的云端电脑,自带完整的 VS Code 开发环境,个人用户享有免费额度,用来跑 OpenClaw 这类轻量级服务刚好够用。
创建云端环境
登录 GitHub,新建一个空仓库(名字随意,比如 clawdbot-space),点击 Create。仓库建好后,在页面左上角点击 Create a codespace,再点 Create new codespace。等网页加载出类似 VS Code 的界面,云端环境就绑定好了。
安装 OpenClaw
在 Codespaces 下方的终端里粘贴官方安装命令,一路回车同意协议,模式选择 Quick Start。
到选择模型这一步有个实用建议:先选 Qwen 登录。Qwen 目前支持免费试用且效果不错,优先跑通整条链路比纠结模型选择更重要。验证流程没问题之后再切换到更强的模型。
接入飞书
飞书在群组协作场景下的体验明显优于其他 IM 工具,推荐作为 OpenClaw 的 Channel 首选。具体接入步骤涉及飞书开放平台的机器人配置,这部分流程相对标准化,按官方文档操作即可。
配置国产模型和第三方 API
这是很多人关心的问题:能不能用 DeepSeek,或者接入其他中转平台的 API Key?可以,但配置上有细节要注意。
在 Codespaces 里打开配置文件 ~/.clawdbot/clawdbot.json,修改 models 部分。
配置 DeepSeek(OpenAI 兼容模式): DeepSeek 官方兼容 OpenAI 协议,但这里有一个常见的坑——api 字段必须填 openai-completions,填错会直接报错。
配置 Claude: 如果使用 Anthropic 中转服务,api 字段必须填 anthropic-messages,逻辑和 DeepSeek 一致,只是协议不同。
对齐 Primary 模型(关键步骤): 很多人配完模型就以为结束了,结果启动后发现还在调用旧模型。需要在配置文件的 agents 字段里,把 defaults 中的 primary 指向新配置的模型,格式为 供应商名称/模型ID,比如 deepseek/deepseek-chat。
启动与验证
保存配置文件后,回到终端输入启动命令。观察终端日志,重点确认两件事:刚配置的模型名字(比如 deepseek-chat)是否出现,以及飞书的连接状态是否正常。
Web 控制台的两个常见报错
Codespaces 会自动把 OpenClaw 的内网端口映射到公网。在终端旁边的 PORTS 标签页找到端口 18789,点击地址旁的图标即可打开 Web 控制台。但第一次打开大概率会遇到两个问题。
Gateway token missing: Web 控制台默认开启了 Token 验证。回到配置文件 ~/.clawdbot/clawdbot.json,找到 gateway -> auth 部分,复制 token 值,粘贴到网页的 Gateway Token 输入框,点击 Connect。
Pairing required: OpenClaw 检测到新设备接入,需要后台确认。两种解法:
- 改配置文件: 在终端用编辑器打开验证文件,将
"silent": false改为"silent": true,保存即可一劳永逸。 - 命令行批准: 在终端查看请求列表,找到 Pending 状态的 Request ID,执行批准命令。
两个问题解决后刷新页面,就能看到完整的控制面板,包括运行状态、链路连接情况和基本管理功能。
进阶:让 OpenClaw 操控代码仓库
这套方案有一个容易被忽略的优势。Codespaces 本身就是一个完整的 IDE,意味着 OpenClaw 不只是一个聊天机器人,它可以直接在这个环境里写代码、提交到仓库、甚至触发部署。在飞书里发一句「帮我写个贪吃蛇游戏」,它可以完成编码、部署,并把试玩链接发回来。这把 AI Agent 从「对话工具」升级成了「开发协作者」。
需要注意的限制
GitHub Codespaces 的免费额度有上限,长时间不操作会自动休眠。这意味着它更适合验证和轻量使用场景,不适合需要 7×24 小时在线的生产环境。但作为零成本的入门方案,它解决了最核心的问题:让任何人都能在五分钟内跑通 OpenClaw 的完整流程,再决定是否值得投入更多资源。
对于想快速验证 AI Agent 可行性的独立开发者来说,先用免费资源把链路跑通,再考虑是否需要长期部署,这个顺序比一上来就投入基础设施成本要合理得多。