这个方案解决什么问题

OpenClaw 的记忆机制是内置的,一旦上下文窗口被压缩,之前的对话记忆就丢了。重装更惨,所有积累归零。MemOS 的思路很直接:把记忆外置到本地服务,脱离 OpenClaw 本身的生命周期管理。这样做有两个好处——记忆持久化不怕丢失,同时通过 embedding 模型做语义检索,比暴力塞上下文省 token。

官方数据称比 OpenAI Memory 准确率高 43.70%,token 节省 35.24%。省下来的钱可以换更好的模型,这笔账算得过来。

安装与配置

安装完成后,运行重启命令让 OpenClaw 加载本地记忆服务。启动成功后浏览器访问 http://127.0.0.1:18799,设置密码即可进入管理界面。

关键配置有三项:

1. Embedding 模型

用于语义检索,是节省 token 的核心。推荐用硅基流动的接口,费用远低于大模型:

  • 地址:https://api.siliconflow.cn/v1
  • 模型:BAAI/bge-m3

2. 摘要模型

用来总结对话、提炼 SOP 和经验:

  • 地址:https://api.deepseek.com/v1
  • 模型:deepseek-chat

3. Skill 生成模型

这一项可选,但配一个好模型生成的 Skill 质量更高。

三步配完,本地记忆系统就能跑起来了。

记忆移植:把积累带走

不少人遇到过 OpenClaw 用着用着崩了需要重装的情况,最心疼的就是里面积累的记忆。MemOS 的导入面板支持将 OpenClaw 的记忆迁移到外部存储,重装后直接恢复,没有后顾之忧。

移植完成后,在管理界面触发记忆优化和自动进化 Skill 功能,系统会对历史记忆做一轮整理和提炼。

自动进化的工作原理

这套机制的闭环逻辑值得拆解:

  1. 对话存储优化——持久化且语义索引,按需检索而非全量塞入上下文,直接省 token
  2. AI 分析对话——从历史对话中提取有价值的任务模式
  3. 识别重复任务——将高频操作总结沉淀为 Skill
  4. Skill 反哺效率——好的 Skill 减少重复劳动,进一步节约 token

整个流程自动运行。对话越多,积累的 Skill 越丰富,OpenClaw 的表现就越好。这本质上是在做一个正反馈飞轮:用得越多 → 记忆越丰富 → Skill 越精准 → token 消耗越低 → 同样预算能做更多事。

部署踩坑记录

项目地址在 GitHub 的 MemTensor/MemOS 仓库下 apps/memos-local-openclaw 目录。本地部署有两个常见问题:

  • better-sqlite3 编译失败:这是 C++ 原生模块,需要按官方文档配置编译环境
  • 启动后无响应:这实际上是 OpenClaw 的 Bug,需要完全杀掉旧进程后执行 openclaw gateway install --force 重新安装

如果不想折腾本地部署,项目方也提供了近乎免费的云端版本。

怎么看这件事

OpenClaw 的生态正在复刻早期 Linux 的路径——产品本身粗糙,但因为足够开放,社区在快速补齐短板。MemOS 就是典型案例:官方没解决好的记忆和 Skill 问题,第三方用一个本地服务就接上了。

个人助理式 Agent 这条赛道目前还没看到真正的壁垒,但方向已经明确。对独立开发者来说,现在值得做的不是等产品完美,而是尽早跑通"记忆 + Skill 自动沉淀"这套工作流——它决定了你和 AI 协作的效率上限。