0.18 版本更新了什么

刚发布的 0.18 版本带来了几个值得关注的改进:

  • 新增三个 AI 服务商支持:Kilo、Ollama、OpenRouter。这意味着你不再局限于 OpenAI 一家,本地跑 Ollama 模型的开发者也能用它来统一监控了
  • 历史节奏追踪 + 风险预测 + 数据回填:说白了就是帮你看清楚 Codex 的使用趋势——跑得有多快、花得有多猛,还能补录之前的历史数据
  • 合并菜单的 Overview 标签页:把分散的信息聚到一个视图里,少点几下鼠标
  • 减少 Claude 钥匙串弹窗:用过 macOS 上 Claude 相关工具的人应该都被那个反复弹出的 Keychain 授权窗口折磨过,这次终于优化了
  • 更低的 CPU 和能耗占用,更快的 JSONL 日志扫描:一个后台监控工具如果自己就吃掉一堆资源,那就本末倒置了

为什么独立开发者该关注这类工具

现在用 AI Agent 写代码的人越来越多,Codex CLI、Claude Code、Cursor 后台同时跑着是常态。但很少有人认真算过这些工具的实际消耗。CodexBar 的思路很简单——给你的 AI 编程助手装一个仪表盘。

项目在 GitHub 上已经拿到了 8200+ star,580+ fork,说明确实戳中了需求。它目前只支持 macOS,核心逻辑是扫描本地的 JSONL 日志文件来提取数据,不需要额外的服务端。

实操建议

如果你日常重度依赖 AI 编程工具,建议装一个试试。不是为了省那点 token 钱,而是为了建立对 AI 辅助开发真实成本的感知。很多人觉得"AI 帮我写代码很快",但从来没量化过"快了多少、花了多少"——没有度量就没有优化,这个道理在 AI 时代同样成立。