它到底解决什么问题

用过 AI Agent 的人都知道,对话一长,上下文窗口就爆了。要么截断丢信息,要么塞太多 token 烧钱。graph-memory 的思路是:从对话中自动提取结构化的三元组(知识图谱的基本单元),把上下文压缩 75%,同时还能实现跨会话的经验复用。

这个压缩比例如果是真的,那意义很大——意味着你可以用同样的 token 预算,让 Agent 记住多得多的东西。

核心能力拆解

这个插件主要做三件事:

  • 结构化知识提取:自动从对话内容中抽取实体和关系,构建知识图谱。不是简单的关键词提取,而是三元组级别的结构化信息。
  • 上下文压缩:通过图谱结构替代原始文本,实现约 75% 的上下文压缩率。对 token 敏感的场景(比如长对话、多轮交互)特别有用。
  • 跨会话经验复用:这是最值得关注的一点。传统的对话系统每次开新会话就是从零开始,但有了知识图谱做持久化存储,之前积累的经验可以直接被新会话调用。

对一人公司开发者的意义

如果你在搭建 AI 自动化工作流,特别是用 OpenClaw 这类 Agent 框架的,这个插件值得关注。独立开发者最缺的就是时间和资源,一个能让 Agent "记住"之前做过什么、学过什么的记忆系统,直接提升了 Agent 的可用性。

想象一下:你的客服 Agent 能记住之前处理过的所有类似问题,你的编程助手能复用之前项目中积累的最佳实践——这就是跨会话经验复用的实际价值。

项目目前在 GitHub 上(adoresever/graph-memory),star 数还不多(80+),属于早期阶段,但方向很对。做 RAG 或者 Agent 记忆方案的可以去看看代码实现,至少知识图谱+上下文压缩这个组合思路,拿来改造自己的项目也是可以的。