乐于分享
好东西不私藏

OpenClaw用户狂喜:这个插件让Agent终于不会“聊着聊着就失忆”了

OpenClaw用户狂喜:这个插件让Agent终于不会“聊着聊着就失忆”了

项目介绍

lossless-claw 是专门为 OpenClaw打造的上下文管理插件。其核心目标是实现 LCM(Lossless Context Management,无损上下文管理)。它不仅仅是一个存储器,更是一套智能的记忆调度系统,让你的 Agent 既能拥有“无限”的记忆深度,又能保持极高的推理精度。

核心功能

  1. 分层递归总结 (Hierarchical Summarization)不同于传统的“滑动窗口”直接丢弃旧信息,lossless-claw 采用了一种基于 DAG(有向无环图) 的总结机制。它会将历史对话切片并生成摘要,摘要之上再生成高级摘要。这种结构确保了模型在处理当前对话时,既能看到最近的细节,也能感知到宏观的历史背景。

  2. 动态记忆唤醒 (lcm_expand)这是该项目最硬核的功能。当 Agent 在对话中发现某个摘要节点涉及的关键细节缺失时,它可以主动调用内置工具“展开”该节点,从数据库中提取原始的对话原文。这种“按需加载”的机制,完美平衡了上下文长度与信息完整性。

  3. 多模型协作架构为了节省成本,lossless-claw 支持 双模型配置。你可以使用性能最强的 Claude 3.5 Sonnet 或 GPT-4o 作为主推理模型,而将后台繁琐的摘要生成工作交给 GPT-4o-mini 或 Claude Haiku 等廉价模型,极大降低了长程对话的运行开销。

  4. 本地持久化与语义检索所有对话数据均通过 SQLite 存储在本地,并支持 lcm_grep 工具。这意味着 Agent 可以像程序员搜代码一样,在数万条历史记录中精准定位某次讨论的结论。

使用方法

由于 lossless-claw 是 OpenClaw 生态的插件,其安装过程非常符合开发者习惯:

1. 安装插件在你的 OpenClaw 环境下执行:

openclaw plugins install @martian-engineering/lossless-claw

2. 配置启用在项目的 openclaw.json 配置文件中,修改上下文引擎设置:

{
"contextEngine""lossless-claw",
"pluginConfig": {
"lossless-claw": {
"summaryModel""gpt-4o-mini"
"maxContextTokens"4096,
"dbPath""./memory.sqlite"
    }
  }
}

优势对比

特性
传统滑动窗口 (Sliding Window)
常见摘要模式 (Summarization)
Lossless-Claw (LCM)
记忆深度
极浅(仅限最近几条)
中等(丢失细节)
无限(支持全量回溯)
Token 消耗
相对固定
较低
按需加载,动态平衡
准确度
高(局部)/ 低(全局)
中(容易产生幻觉)
极高(原文回溯)
数据安全性
通常随进程消失
取决于实现
本地 SQLite 持久化

总结

lossless-claw 绝不是一个简单的数据库插件,它是对 “如何让模型高效处理超长文本” 这一命题的工程化最优解。它通过 DAG 总结和动态展开机制,让 Agent 脱离了物理上下文窗口的束缚。

项目地址: https://github.com/Martian-Engineering/lossless-claw

读到这里说明你喜欢本公众号的文章,欢迎 置顶(标星)本公众号,这样就可以第一时间获取推送了~如果这篇对你有帮助,欢迎关注、点赞、转发~ 

这个公众号发布过的历史 开源项目,如果你懒得翻文章一个个找,你直接关注微信公众号:AI牛马自救指南 ,后台对话聊天就行。