乐于分享
好东西不私藏

OpenClaw Token 太贵?这个免费本地工具,帮你把成本直接打下来!

OpenClaw Token 太贵?这个免费本地工具,帮你把成本直接打下来!
OpenClaw 功能很强,但Token 消耗太快,长期用下来真的肉疼。

作为想把 AI Agent 用到极致的朋友,我们必须开动脑筋:有没有办法让 Agent 实现精准回忆,还能完全零成本?答案是:有。

今天给大家安利一个神器 ——QMD本地运行、免费永久、召回精准度 95% 以上,专治 Token 不够用。

什么是 QMD?

QMD 是 Shopify 创始人 Tobi 开发的本地语义搜索引擎,基于 Rust 编写,专为 AI Agent 设计

核心亮点:

  • 混合搜索:BM25 全文检索 + 向量语义 + LLM 重排序
  • 零 API 成本,不花一分钱
  • 完全本地运行,不上传数据
  • 支持 MCP 集成,直接对接 OpenClaw

3 步配置,10 分钟搞定

第 1 步:安装 qmd

需要先安装 Bun,然后执行:

bun install -g github:tobi/qmd

首次运行会自动下载模型(Embedding 和 Reranker),下载完成后即可完全离线运行。

第 2 步:创建记忆库 + 生成 embeddings

进入 OpenClaw 工作目录,索引你的 memory 文件夹:

# 创建记忆库

qmd collection add memory --name daily-logs --mask "**/*.md"

# 生成 embeddings

qmd embed

索引速度极快,本地运行不联网。

第 3 步:测试搜索

# 混合搜索(最精准)

qmd query "关键词"

# 纯语义搜索

qmd vsearch "关键词"

进阶:MCP 集成

让 AI agent 直接调用 qmd,在 mcporter.json 里加一段配置:

{

  "mcpServers": {

    "qmd": {

      "command": "/Users/你的用户名/.bun/bin/qmd",

      "args": ["mcp"]

    }

  }

}

配置好后,agent 会主动从历史 log 中找最相关的段落,跨文件精准回忆,不再靠你手动提醒。

实际效果

场景 1:回忆用户偏好。不再需要把整个 2000 token 的 http://MEMORY.md 塞进去,qmd 只返回相关的 200 token,省钱又精准。

场景 2:跨文件知识检索。自动从所有 memory 文件中找最相关段落,准确率极高。

如果你在用 OpenClaw 觉得 token 烧得心疼,赶紧折腾起来。

好了,今天的分享就到此结束,咱们下回见;

如果觉得文章对你有帮助,记得点。赞。转。发。收。藏喔!

链接也船长 +WX:913389778,拉你进 OpenClaw 小龙虾交流群!