不截断,只压缩

lossless-claw 的核心设计是 LCM(Lossless Context Management)。它的做法是:每条消息写入本地 SQLite 数据库,然后自动将历史消息摘要成 DAG(有向无环图)结构。context 窗口里塞的是压缩后的摘要版本,而原始记录完整保留在数据库中,随时可以回溯。

代价很明确——多消耗一些 token 用于生成摘要。但换来的是 context 不会因为截断而产生信息断层。

这个方向为什么值得关注

context 管理是当前 AI agent 工程化的核心瓶颈之一。模型能力在涨,context 窗口也在扩,但真实场景中 agent 处理复杂任务时,有效信息密度和窗口长度之间的矛盾并没有被根本解决。截断是最省事的方案,但也是最粗糙的。

lossless-claw 选择的"摘要压缩 + 原始存储"路径,本质上是在 context 窗口之外建了一层持久化的记忆层。这个思路和 RAG 有相似之处,但更轻量——不需要向量数据库,SQLite 就够了,适合独立开发者在本地跑。

目前这个项目在 GitHub 上已经有 2k star、147 fork,社区活跃度不错,说明痛点是真实存在的。

适用场景

如果你在用 Claude Code 搭建需要长对话、多步骤推理的 agent 工作流,并且经常遇到 agent 在后半程"失忆"的问题,lossless-claw 值得试一下。它作为插件直接集成,不需要大改现有架构。

不过有一点需要冷静看待:摘要本身也会引入信息损耗,DAG 结构的摘要质量直接决定了这套方案的上限。项目名叫"lossless",但严格意义上并不是无损的——只是原始数据无损,context 里用的仍然是有损的摘要。这条赛道目前还没看到真正成熟的方案,lossless-claw 更像是一个有价值的实验方向。