同样的坑重新踩,同样的东西重新教。这不是你的问题,是所有大模型对话工具的通病:没有持久记忆

今天介绍的开源项目 MemOS,用一行命令就能解决这个问题。它是一个本地记忆操作系统,装上之后你的 AI 助手不仅能记住之前的对话内容,还会自动把踩坑经验提炼成可复用的"技能"。官方基于 LoCoMo 数据集的测试数据显示:Token 消耗节省近 49%,任务完成速度提升约 2.15 倍。更关键的是——100% 本地运行,零数据上传。

一分钟安装:给 AI 装上永久大脑

整个安装过程极其简单,前提是你已经有 OpenClaw 和 Node.js 环境。

  1. 一行命令安装:
npm install -g /memos-local-openclaw
  1. 浏览器访问记忆面板:http://127.0.0.1:18799,设置密码即可完成配置。

  2. 验证是否生效:在 OpenClaw 里随便聊几句,刷新记忆面板,看到对话被自动记录就说明装好了。

为什么强调"本地版"?因为很多实际场景需要完全离线运行。比如用本地 Ollama 跑 Llama、Qwen 等模型的离线 AI 知识库,不能连外网但又需要记忆系统来积累知识——这正是本地版的核心价值。数据存储就是一个 SQLite 文件,备份就复制,迁移就拷贝,删除就删文件,零外部依赖。

记忆复活:跨会话记忆真的能用

光说不练没意义,来看一个实测。

第一轮对话:告诉 AI "我下个月要在深圳搞个 OpenClaw 的沙龙,有什么好建议?" AI 正常回复,聊了几句议程安排。

第二轮对话:用 new 命令开一个全新 Session,直接问:"我下个月要在哪里举办什么活动?"

结果:AI 秒回——"你下个月要在深圳举办 OpenClaw 沙龙,时间 4 月 5 号避开了广交会。"

这背后的原理并不复杂:MemOS 自动从对话中提取关键信息(活动类型、地点、时间、规模等),存入本地记忆库。无论什么时候开新窗口,AI 都能从记忆库中检索调取。这不是临时缓存,是持久化存储。

技能自动提炼:踩过的坑变成可复用资产

MemOS 更有意思的能力在于——它不只是存聊天记录,还会自动识别有价值的经验,提炼成"技能"。

举个例子:你让 AI 生成一份安全巡查的每日简报,第一次折腾了 30 分钟,踩了格式不统一、可视化效果差等各种坑,好不容易调到满意。MemOS 后台会自动把这 30 分钟的踩坑过程提炼成一个技能。下次再需要类似格式时,AI 直接调用这个技能,一步到位。

更值得注意的是:如果你后来发现了更好的写法,MemOS 会自动升级这个技能。你的 AI 助手会随着使用越来越聪明,而不是每次从零开始。

多 Agent 共享记忆池:团队级别的知识流转

对于一人公司来说,你很可能同时运行多个 AI Agent——一个负责战略规划,一个管业务流程,一个做营销推广,一个写代码。

没有共享记忆时,每个 Agent 都是一座信息孤岛。写代码的 Agent 花 2 小时摸索出的代码审查清单,做营销的 Agent 遇到同样问题时照踩不误。

MemOS 的共享记忆池解决了这个问题。它的设计分两层:

  • 共享记忆池:沉淀的技能和标准化方案,所有 Agent 都能访问
  • 个人记忆:工作草稿和临时思路,只有对应的 Agent 能看到

这意味着一个 Agent 总结出来的经验,其他 Agent 可以直接复用。每个 Agent 的成长,都在为整个系统积累能力。

实测数据

根据官方基于 LoCoMo 数据集和真实开发任务的实验数据:

  • 平均交互轮次减少 53%,任务完成速度提升约 2.15 倍
  • 单次任务的 Input Token 减少 30.8%
  • 总 Token 消耗节省近 49%,整体推理开销接近减半

对于高频使用 AI 的独立开发者来说,这些数字直接对应着成本和时间的节省。

值得一试

MemOS 的本质很简单:给 AI 助手加上持久化记忆和技能积累的能力。它不需要你懂向量数据库,不需要自己搭基础设施,数据完全在本地。

如果你正在用多个 AI Agent 协同工作,或者受够了每次新对话都要重新"教育" AI 的重复劳动,可以试试装上跑几天。当你发现它真的开始记住你的偏好、积累你的经验时,你会重新思考一个问题:一个有记忆的 AI 助手和一个没有记忆的 AI 助手,生产力差距到底有多大?

项目地址:github.com/MemTensor/MemOS