乐于分享
好东西不私藏

让AI告别“金鱼脑”:OpenClaw插件QMD与LCM终极配置指南

让AI告别“金鱼脑”:OpenClaw插件QMD与LCM终极配置指南

点击下方👇 嘿哥的AI基地 关注公众号

一起探索AI的世界

长期记忆 + 无损压缩,打造你的“过目不忘”智能助手

“我们上次讨论的那个项目配置是什么来着?”

“我记得你说过,但具体参数忘了…”

在与AI助手的日常对话中,你是否也遇到过类似的尴尬?AI助手像金鱼一样只有7秒记忆,每次对话都从零开始。

给大家介绍两个开源项目: QMD 和 LCM ,正是为了解决这一痛点而生。

今天,我们就来深度解析这对黄金搭档,帮大家打造一个真正“过目不忘”的智能工作伙伴。

一、记忆的黄金搭档:QMD 与 LCM

QMD (Query Markup Documents) : 是长期记忆搜索引擎,负责从你的历史文件中精准检索信息。它像你的“私人图书馆”,能够记住几个月前的项目细节、个人偏好和重要配置。

LCM (Lossless Claw) : 是无损上下文管理器,专门处理当前对话。当聊天记录过长时,它将旧消息智能压缩成摘要,避免因上下文过长而“失忆”,保证长对话的连贯性。

一句话总结:QMD管“硬盘里的知识”(长期),LCM管“内存里的对话”(短期),两者完美兼容,毫无冲突

二、三步部署,告别“金鱼脑”

第一步:安装

# 安装 QMDnpm install -g @tobilu/qmd# 安装 LCMopenclaw plugins install @martian-engineering/lossless-claw

第二步:配置

编辑 openclaw.json 文件:

{"memory": {"backend""qmd",  // 启用QMD长期记忆"qmd": {"scope": { "default""allow" },"limits": {"timeoutMs"50000,"maxResults"5      }    }  },// 启用LCM"plugins": {  "slots": { "contextEngine""lossless-claw"// 让这个插件管记忆    },    "entries": {  "lossless-claw": {  "enabled"true,  "config": {  "freshTailCount"32,    // 永远记住最近32句聊天 "contextThreshold"0.75,// 用到75%容量就整理笔记 "incrementalMaxDepth"-1// 笔记想整理多深就多深"dbPath""~/.openclaw/lcmdata/lcm.db"        }        }      }    },  "session": { "reset": { // 7天不聊也不忘"mode""idle""idleMinutes"10080    }   }  }

第三步:验证

  • QMD:重启 OpenClaw 后,在日志中搜索 qmd,看到 QMD backend initialized 即成功。测试时,问一个很久以前记录在 memory.md 里的细节,看AI能否准确回忆。
  • LCM:在长对话中,问“我们最开始讨论的那个问题是什么?”,如果AI能准确回溯,说明配置生效。

三、性能优化:从能用到好用

1、QMD 优化:质量决定一切

QMD 的性能瓶颈在于检索质量。记住:垃圾进,垃圾出

  1. 结构化写入:让AI将关键信息(如“项目部署 IP: 1.1.1.1”)结构化写入 MEMORY.md。流水账式的聊天记录是检索质量的头号杀手。

  2. 精准索引:只索引必要的目录,通常为 workspace/memory 和 MEMORY.md切勿索引 sessions/ 目录,否则会污染知识库。

  3. 模型升级:默认的 all-MiniLM-L6-v2 向量模型足够轻量。如果追求极致,可手动替换为 bge-small-en-v1.5,检索精度更高。

2、LCM 优化:速度与记忆的平衡

LCM 的核心是找到“实时性”与“保真度”的最佳平衡点。推荐配置:

# 黄金配置export LCM_FRESH_TAIL_COUNT=32       # 保留32轮“保鲜”对话export LCM_INCREMENTAL_MAX_DEPTH=-1  # 允许无限递归压缩export LCM_CONTEXT_THRESHOLD=0.75    # 上下文占用75%时开始压缩

关键参数解析

  • FRESH_TAIL_COUNT:AI“瞬时记忆”的轮数。设置过大会导致响应变慢,32是经过验证的“甜点值”。
  • CONTEXT_THRESHOLD:触发压缩的“警戒线”。0.75意味着为突发对话留足了25%的缓冲空间。

这里的配置是以环境变量为例的。

在 OpenClaw 中,LCM 插件的配置遵循“环境变量优先”的原则。环境变量 和 配置文件 两者在功能上是等价的,但在加载顺序和优先级上存在明确区别。

区别 :

维度
环境变量 (Environment Variables)
配置文件 (openclaw.json)
加载时机
进程启动时由系统读取
OpenClaw 主程序初始化时读取
优先级

 (覆盖配置文件)
低 (被环境变量覆盖)
生效范围
系统/终端全局
仅当前 OpenClaw 实例
适用场景
临时调试、CI/CD 环境、多用户隔离
项目级固定配置、团队共享配置

关联 :

它们是同一套配置参数的两种不同存储介质。LCM 插件在启动时,会先读取配置文件中的值,但 如果检测到同名的环境变量存在,则会用环境变量的值覆盖配置文件的值

四、进阶技巧:高手的“心法”

  1. QMD 是你的“第二大脑”:将AI工具返回的重要代码、配置、设计思路,主动整理并让AI写入 memory/ 目录下的 Markdown 文件。三个月后,一句“那个项目”,AI就能帮你找回所有细节。

  2. LCM 是“对话秘书”:当AI需要回顾长篇文档时,不要依赖LCM的压缩记忆。主动让AI从文档中提取核心结论,存入QMD的知识库,这是保证关键信息永不丢失的秘诀。

  3. 性能监控:通过 /status 命令实时查看上下文占用情况。如果响应明显变慢,可能是LCM压缩过于频繁,适当降低 FRESH_TAIL_COUNT 即可改善。

五、常见误区与避坑指南

  • 误区一:QMD和LCM会冲突?

    • 真相:完全不会。一个是硬盘知识库,一个是内存管理器,可以同时使用。
  • 误区二:把所有聊天记录都喂给QMD?

    • 避坑:这是大忌!只索引结构化知识,不索引对话记录,否则检索质量会断崖式下降。
  • 误区三:LCM压缩会让AI“断片”?

    • 避坑:将绝对不能丢失的信息(如核心API密钥片段)手动存入QMD。LCM的压缩摘要足以维持对话逻辑,但不宜存储细节。

六、总结

从“每次对话都像初次见面”的AI,到“记得你三个月前需求”的智能伙伴,QMD 和 LCM 带来的不仅是功能提升,更是协作方式的革命。

技术服务于人,而非束缚人。当你的AI助手记住了你的项目细节、工作习惯,甚至个人偏好,你会发现,人机协作的边界正在被重新定义。

现在,就为你的OpenClaw装上这对“记忆翅膀”,开启真正的智能协作之旅吧。

QMD源码地址https://github.com/tobi/qmd

LCM源码地址https://github.com/martian-engineering/lossless-claw


分享就到这里了,如果对大家有帮助,随手点个赞、转发、推荐三连吧,如果想第一时间收到推送,也可以给我个星标。

有任何想法,欢迎大家留言~   

小手一赞,年入百万!👍👍👍

#Cursor #ClaudeCode #Agent #MCP #Trae #Kiro #CodeBuddy #工具干货 #AI应用 #AI工具 #AI编程