作为想把 AI Agent 用到极致的朋友,我们必须开动脑筋:有没有办法让 Agent 实现精准回忆,还能完全零成本?答案是:有。
今天给大家安利一个神器 ——QMD本地运行、免费永久、召回精准度 95% 以上,专治 Token 不够用。
什么是 QMD?
QMD 是 Shopify 创始人 Tobi 开发的本地语义搜索引擎,基于 Rust 编写,专为 AI Agent 设计。
核心亮点:
混合搜索:BM25 全文检索 + 向量语义 + LLM 重排序 零 API 成本,不花一分钱 完全本地运行,不上传数据 支持 MCP 集成,直接对接 OpenClaw
3 步配置,10 分钟搞定
第 1 步:安装 qmd
需要先安装 Bun,然后执行:
bun install -g github:tobi/qmd
首次运行会自动下载模型(Embedding 和 Reranker),下载完成后即可完全离线运行。
第 2 步:创建记忆库 + 生成 embeddings
进入 OpenClaw 工作目录,索引你的 memory 文件夹:
# 创建记忆库
qmd collection add memory --name daily-logs --mask "**/*.md"
# 生成 embeddings
qmd embed
索引速度极快,本地运行不联网。
第 3 步:测试搜索
# 混合搜索(最精准)
qmd query "关键词"
# 纯语义搜索
qmd vsearch "关键词"
进阶:MCP 集成
让 AI agent 直接调用 qmd,在 mcporter.json 里加一段配置:
{
"mcpServers": {
"qmd": {
"command": "/Users/你的用户名/.bun/bin/qmd",
"args": ["mcp"]
}
}
}
配置好后,agent 会主动从历史 log 中找最相关的段落,跨文件精准回忆,不再靠你手动提醒。
实际效果
场景 1:回忆用户偏好。不再需要把整个 2000 token 的 http://MEMORY.md 塞进去,qmd 只返回相关的 200 token,省钱又精准。
场景 2:跨文件知识检索。自动从所有 memory 文件中找最相关段落,准确率极高。
如果你在用 OpenClaw 觉得 token 烧得心疼,赶紧折腾起来。
好了,今天的分享就到此结束,咱们下回见;
如果觉得文章对你有帮助,记得点。赞。转。发。收。藏喔!

链接也船长 +WX:913389778,拉你进 OpenClaw 小龙虾交流群!

夜雨聆风