LocalCowork:桌面端的本地 Agent

LocalCowork 是一个开源的桌面端 AI Agent,底层跑的是 LFM2-24B-A2B 模型,设计目标很明确:所有推理和工具调用都在本机完成,数据不出设备。

实测数据值得关注:在 M4 MacBook 上,它跨 13 个 MCP Server 调用了 67 个工具,平均每次工具选择耗时 385 毫秒,内存占用仅 14.5GB。对于一个完全离线的多工具 Agent 来说,这个性能已经相当可用了。

三层架构让它跑得起来

能在笔记本上流畅运行一个 24B 参数的多工具 Agent,靠的是三个关键设计:

  • 模型压缩:24B 的稀疏模型通过 Q4 量化压缩,整体内存占用控制在 15GB 以内,主流笔记本都能装得下
  • MCP 工具路由:所有工具调用走本地 MCP Server,不需要任何外部 API 请求
  • 人机协作确认机制:在关键操作节点加入人工确认步骤,让 80% 的准确率在实际使用中变得足够可靠

第三点的设计思路很实用。单看 80% 的工具选择准确率可能觉得不够高,但加上人工确认环节后,错误操作几乎不会真正执行。这比追求 99% 准确率但完全自动化的方案,在现阶段反而更务实。

对独立开发者意味着什么

在此之前,想跑一个能同时调用几十个工具的 Agent,基本只能走云端推理。这意味着你的敏感文件、财务数据、客户信息都要上传到第三方服务器。

现在的场景变了。你可以在本地搭建一个 Agent 来扫描敏感文档、端到端处理发票收据、生成审计报告,整个过程没有一个字节离开你的电脑。对于处理客户数据或财务信息的一人公司来说,这直接解决了数据隐私的顾虑。

随着端侧硬件持续进步,本地 Agent 的能力边界还会继续扩大。如果你正在搭建涉及敏感数据的自动化工作流,现在就可以关注 LocalCowork 这类本地方案——不是所有 Agent 都需要云端才能干活。