昨天刷到一个开源项目 CLIProxyAPI,试了一下,还真管用。它的思路很简单粗暴:把 GPT、Gemini、Claude、Qwen3、Kimi、GLM 这些模型统一封装成 OpenAI 和 Anthropic 的标准 API 接口,通过免费额度轮询的方式,基本上实现了"无限续杯"。

记录一下配置过程,确实不复杂。

安装配置

去 GitHub 的 CLIProxyAPI releases 页面,下载对应系统架构的压缩包。解压后把文件夹移动到一个固定位置,比如 D:\Program Files\

然后在文件夹里新建一个 config.yaml 配置文件,把基本参数填好。

启动也很简单——在 CLIProxyAPI 文件夹空白处 Shift + 鼠标右键,选「在终端打开」,输入:

cli-proxy-api

就跑起来了。

管理后台

打开 http://localhost:8317/management.html,登录密钥就是你在 config.yaml 里设置的 secret-key

进去之后需要做 OAuth 登录,选 Google 邮箱登录就行。认证成功后回到管理界面,能看到认证状态。这一步其实就是把你的账号额度接进来。

验证是否能用

我是用 Cherry Studio 测试的。在设置里添加一个自定义 Provider,把地址指向本地的 CLIProxyAPI,然后在可用模型列表里挑一个——我直接选了 GPT-5.2-Codex。

打开会话框,发条消息,能正常回复就说明整条链路通了。

接入开发工具

这个方案的实际价值在于,它输出的是标准 API 接口,所以 Claude Code、OpenClaw、VSCode 插件、OpenCode 这些工具都能直接对接。配置方式和正常填 API Key 差不多,只是把 base URL 指向本地服务。

说句实在话,我也不确定这种方案长期稳不稳定,毕竟依赖的是免费额度的轮询机制,哪天上游改了策略可能就失效了。但作为一个临时解决方案,或者在开发阶段省点钱,确实够用了。独立开发者嘛,能省的地方先省着,把预算花在真正上线后的生产环境上。