OpenClaw用户狂喜:这个插件让Agent终于不会“聊着聊着就失忆”了
项目介绍
lossless-claw 是专门为 OpenClaw打造的上下文管理插件。其核心目标是实现 LCM(Lossless Context Management,无损上下文管理)。它不仅仅是一个存储器,更是一套智能的记忆调度系统,让你的 Agent 既能拥有“无限”的记忆深度,又能保持极高的推理精度。

核心功能
-
分层递归总结 (Hierarchical Summarization)不同于传统的“滑动窗口”直接丢弃旧信息,
lossless-claw采用了一种基于 DAG(有向无环图) 的总结机制。它会将历史对话切片并生成摘要,摘要之上再生成高级摘要。这种结构确保了模型在处理当前对话时,既能看到最近的细节,也能感知到宏观的历史背景。 -
动态记忆唤醒 (lcm_expand)这是该项目最硬核的功能。当 Agent 在对话中发现某个摘要节点涉及的关键细节缺失时,它可以主动调用内置工具“展开”该节点,从数据库中提取原始的对话原文。这种“按需加载”的机制,完美平衡了上下文长度与信息完整性。
-
多模型协作架构为了节省成本,
lossless-claw支持 双模型配置。你可以使用性能最强的 Claude 3.5 Sonnet 或 GPT-4o 作为主推理模型,而将后台繁琐的摘要生成工作交给 GPT-4o-mini 或 Claude Haiku 等廉价模型,极大降低了长程对话的运行开销。 -
本地持久化与语义检索所有对话数据均通过 SQLite 存储在本地,并支持
lcm_grep工具。这意味着 Agent 可以像程序员搜代码一样,在数万条历史记录中精准定位某次讨论的结论。
使用方法
由于 lossless-claw 是 OpenClaw 生态的插件,其安装过程非常符合开发者习惯:
1. 安装插件在你的 OpenClaw 环境下执行:
openclaw plugins install @martian-engineering/lossless-claw
2. 配置启用在项目的 openclaw.json 配置文件中,修改上下文引擎设置:
{
"contextEngine": "lossless-claw",
"pluginConfig": {
"lossless-claw": {
"summaryModel": "gpt-4o-mini",
"maxContextTokens": 4096,
"dbPath": "./memory.sqlite"
}
}
}
优势对比
|
|
|
|
|
|---|---|---|---|
| 记忆深度 |
|
|
无限(支持全量回溯) |
| Token 消耗 |
|
|
按需加载,动态平衡 |
| 准确度 |
|
|
极高(原文回溯) |
| 数据安全性 |
|
|
本地 SQLite 持久化 |
总结
lossless-claw 绝不是一个简单的数据库插件,它是对 “如何让模型高效处理超长文本” 这一命题的工程化最优解。它通过 DAG 总结和动态展开机制,让 Agent 脱离了物理上下文窗口的束缚。
项目地址: https://github.com/Martian-Engineering/lossless-claw
这个公众号发布过的历史 开源项目,如果你懒得翻文章一个个找,你直接关注微信公众号:AI牛马自救指南 ,后台对话聊天就行。
夜雨聆风