昨天刷到一个开源项目 CLIProxyAPI,试了一下,还真管用。它的思路很简单粗暴:把 GPT、Gemini、Claude、Qwen3、Kimi、GLM 这些模型统一封装成 OpenAI 和 Anthropic 的标准 API 接口,通过免费额度轮询的方式,基本上实现了"无限续杯"。
记录一下配置过程,确实不复杂。
安装配置
去 GitHub 的 CLIProxyAPI releases 页面,下载对应系统架构的压缩包。解压后把文件夹移动到一个固定位置,比如 D:\Program Files\。
然后在文件夹里新建一个 config.yaml 配置文件,把基本参数填好。
启动也很简单——在 CLIProxyAPI 文件夹空白处 Shift + 鼠标右键,选「在终端打开」,输入:
cli-proxy-api
就跑起来了。
管理后台
打开 http://localhost:8317/management.html,登录密钥就是你在 config.yaml 里设置的 secret-key。
进去之后需要做 OAuth 登录,选 Google 邮箱登录就行。认证成功后回到管理界面,能看到认证状态。这一步其实就是把你的账号额度接进来。
验证是否能用
我是用 Cherry Studio 测试的。在设置里添加一个自定义 Provider,把地址指向本地的 CLIProxyAPI,然后在可用模型列表里挑一个——我直接选了 GPT-5.2-Codex。
打开会话框,发条消息,能正常回复就说明整条链路通了。
接入开发工具
这个方案的实际价值在于,它输出的是标准 API 接口,所以 Claude Code、OpenClaw、VSCode 插件、OpenCode 这些工具都能直接对接。配置方式和正常填 API Key 差不多,只是把 base URL 指向本地服务。
说句实在话,我也不确定这种方案长期稳不稳定,毕竟依赖的是免费额度的轮询机制,哪天上游改了策略可能就失效了。但作为一个临时解决方案,或者在开发阶段省点钱,确实够用了。独立开发者嘛,能省的地方先省着,把预算花在真正上线后的生产环境上。