问题的本质:不是笨,是记不住

在尝试将 MiniMax 调教为可用的 AI Agent 过程中,最让人崩溃的不是它的推理能力,而是它完全没有持久记忆。具体表现为:每天复读旧日志、生成虚假进度、决策无法追溯、幻觉严重。

经过与 Claude 4.2 Agent 和 Cursor 的反复讨论,得出一个核心结论:MiniMax 真正缺的不是更好的提示词,而是一个"灵魂中枢"——一个能把所有思考、任务、决策全部记住并反哺到后续对话的记忆系统。

这就是 OpenClaw Memory Hub 的由来。

核心架构:四个模块组成闭环

整个记忆系统已开源在 GitHub(仓库名:openclaw-memory-hub),由四个核心模块构成:

  • context_extractor.py:基于当前对话上下文进行智能提取,自动识别成就、收获、决策、问题四类信息,支持 fallback 机制
  • checkpoint-memory-llm.sh:每 6 小时自动触发提取,将原始对话日志转化为结构化记忆
  • nightly-deep-analysis.sh:每天夜间自动分析 MEMORY.md,生成优化任务并写入 TASK_QUEUE.md
  • TASK_QUEUE.md + 决策 JSON:把决策转化为可执行任务,形成从"想到"到"做到"的完整闭环

这套设计的思路很清晰:不依赖模型自己"记住",而是用外部系统帮它管理记忆,再定时反哺回去。

优化前后的实际对比

部署记忆中枢前后的差异相当明显:

维度 优化前 优化后
上下文处理 复制粘贴旧日志 对话上下文智能提取
决策记录 说完就忘 自动记录为 JSON,可追溯
任务生成 TASK_QUEUE.md 每日自动生成优化任务
无效输出 频繁废话和幻觉 零废话拦截,静默时不发消息
数据为空时 编造内容 强制熔断,不再捏造

"数据为空强制熔断"这个设计值得单独说一句——很多 Agent 方案忽略了这一点,导致模型在没有真实数据时依然煞有介事地输出,这在生产环境中非常危险。

如何验证记忆系统是否真正生效

部署后可以用四步快速验证:

  1. 让它输出一个决策 JSON 文件的路径和完整内容
  2. 让它运行 checkpoint-memory-llm.sh
  3. 让它把 MEMORY.md 最新检查点内容返回给你
  4. 让它把 TASK_QUEUE.md 今日新增任务返回给你

当它能给出真实的 JSON 数据、新的检查点记录、以及可执行的任务列表时,说明记忆中枢已经真正跑通了。这比问它"你还记得昨天的决策吗"要靠谱得多。

部署方式

最简单的方式是直接把 GitHub 仓库链接丢给 MiniMax,让它自己学习整个系统结构。当然也可以手动复制核心代码逐步部署。

这个方案的价值不仅限于 MiniMax。任何缺乏持久记忆的 LLM Agent,都可以参考这套"外部记忆系统 + 定时反哺 + 决策闭环"的架构思路。对于一人公司场景,一个能真正记住上下文、追踪决策、自动生成待办的 Agent,和一个每天失忆的 Agent,产出效率完全不在一个量级。