让AI告别“金鱼脑”:OpenClaw插件QMD与LCM终极配置指南
点击下方👇 嘿哥的AI基地 关注公众号
一起探索AI的世界
长期记忆 + 无损压缩,打造你的“过目不忘”智能助手
“我们上次讨论的那个项目配置是什么来着?”
“我记得你说过,但具体参数忘了…”
在与AI助手的日常对话中,你是否也遇到过类似的尴尬?AI助手像金鱼一样只有7秒记忆,每次对话都从零开始。
给大家介绍两个开源项目: QMD 和 LCM ,正是为了解决这一痛点而生。
今天,我们就来深度解析这对黄金搭档,帮大家打造一个真正“过目不忘”的智能工作伙伴。
一、记忆的黄金搭档:QMD 与 LCM
QMD (Query Markup Documents) : 是长期记忆搜索引擎,负责从你的历史文件中精准检索信息。它像你的“私人图书馆”,能够记住几个月前的项目细节、个人偏好和重要配置。
LCM (Lossless Claw) : 是无损上下文管理器,专门处理当前对话。当聊天记录过长时,它将旧消息智能压缩成摘要,避免因上下文过长而“失忆”,保证长对话的连贯性。
一句话总结:QMD管“硬盘里的知识”(长期),LCM管“内存里的对话”(短期),两者完美兼容,毫无冲突。
二、三步部署,告别“金鱼脑”
第一步:安装
# 安装 QMDnpm install -g @tobilu/qmd# 安装 LCMopenclaw plugins install @martian-engineering/lossless-claw
第二步:配置
编辑 openclaw.json 文件:
{"memory": {"backend": "qmd", // 启用QMD长期记忆"qmd": {"scope": { "default": "allow" },"limits": {"timeoutMs": 50000,"maxResults": 5 } } },// 启用LCM"plugins": { "slots": { "contextEngine": "lossless-claw"// 让这个插件管记忆 }, "entries": { "lossless-claw": { "enabled": true, "config": { "freshTailCount": 32, // 永远记住最近32句聊天 "contextThreshold": 0.75,// 用到75%容量就整理笔记 "incrementalMaxDepth": -1, // 笔记想整理多深就多深"dbPath": "~/.openclaw/lcmdata/lcm.db" } } } }, "session": { "reset": { // 7天不聊也不忘"mode": "idle", "idleMinutes": 10080 } } }
第三步:验证
-
QMD:重启 OpenClaw 后,在日志中搜索 qmd,看到QMD backend initialized即成功。测试时,问一个很久以前记录在memory.md里的细节,看AI能否准确回忆。 -
LCM:在长对话中,问“我们最开始讨论的那个问题是什么?”,如果AI能准确回溯,说明配置生效。
三、性能优化:从能用到好用
1、QMD 优化:质量决定一切
QMD 的性能瓶颈在于检索质量。记住:垃圾进,垃圾出。
-
结构化写入:让AI将关键信息(如“项目部署 IP: 1.1.1.1”)结构化写入
MEMORY.md。流水账式的聊天记录是检索质量的头号杀手。 -
精准索引:只索引必要的目录,通常为
workspace/memory和MEMORY.md。切勿索引sessions/目录,否则会污染知识库。 -
模型升级:默认的
all-MiniLM-L6-v2向量模型足够轻量。如果追求极致,可手动替换为bge-small-en-v1.5,检索精度更高。
2、LCM 优化:速度与记忆的平衡
LCM 的核心是找到“实时性”与“保真度”的最佳平衡点。推荐配置:
# 黄金配置export LCM_FRESH_TAIL_COUNT=32 # 保留32轮“保鲜”对话export LCM_INCREMENTAL_MAX_DEPTH=-1 # 允许无限递归压缩export LCM_CONTEXT_THRESHOLD=0.75 # 上下文占用75%时开始压缩
关键参数解析:
-
FRESH_TAIL_COUNT:AI“瞬时记忆”的轮数。设置过大会导致响应变慢,32是经过验证的“甜点值”。 -
CONTEXT_THRESHOLD:触发压缩的“警戒线”。0.75意味着为突发对话留足了25%的缓冲空间。
这里的配置是以环境变量为例的。
在 OpenClaw 中,LCM 插件的配置遵循“环境变量优先”的原则。环境变量 和 配置文件 两者在功能上是等价的,但在加载顺序和优先级上存在明确区别。
区别 :
|
|
|
|
|---|---|---|
| 加载时机 |
|
|
| 优先级 | 高
|
|
| 生效范围 |
|
|
| 适用场景 |
|
|
关联 :
它们是同一套配置参数的两种不同存储介质。LCM 插件在启动时,会先读取配置文件中的值,但 如果检测到同名的环境变量存在,则会用环境变量的值覆盖配置文件的值。
四、进阶技巧:高手的“心法”
-
QMD 是你的“第二大脑”:将AI工具返回的重要代码、配置、设计思路,主动整理并让AI写入
memory/目录下的 Markdown 文件。三个月后,一句“那个项目”,AI就能帮你找回所有细节。 -
LCM 是“对话秘书”:当AI需要回顾长篇文档时,不要依赖LCM的压缩记忆。主动让AI从文档中提取核心结论,存入QMD的知识库,这是保证关键信息永不丢失的秘诀。
-
性能监控:通过
/status命令实时查看上下文占用情况。如果响应明显变慢,可能是LCM压缩过于频繁,适当降低FRESH_TAIL_COUNT即可改善。
五、常见误区与避坑指南
-
误区一:QMD和LCM会冲突?
-
真相:完全不会。一个是硬盘知识库,一个是内存管理器,可以同时使用。 -
误区二:把所有聊天记录都喂给QMD?
-
避坑:这是大忌!只索引结构化知识,不索引对话记录,否则检索质量会断崖式下降。 -
误区三:LCM压缩会让AI“断片”?
-
避坑:将绝对不能丢失的信息(如核心API密钥片段)手动存入QMD。LCM的压缩摘要足以维持对话逻辑,但不宜存储细节。
六、总结
从“每次对话都像初次见面”的AI,到“记得你三个月前需求”的智能伙伴,QMD 和 LCM 带来的不仅是功能提升,更是协作方式的革命。
技术服务于人,而非束缚人。当你的AI助手记住了你的项目细节、工作习惯,甚至个人偏好,你会发现,人机协作的边界正在被重新定义。
现在,就为你的OpenClaw装上这对“记忆翅膀”,开启真正的智能协作之旅吧。
QMD源码地址:https://github.com/tobi/qmd
LCM源码地址:https://github.com/martian-engineering/lossless-claw
分享就到这里了,如果对大家有帮助,随手点个赞、转发、推荐三连吧,如果想第一时间收到推送,也可以给我个星标。
有任何想法,欢迎大家留言~
小手一赞,年入百万!👍👍👍

夜雨聆风