结论先行
OpenClaw 的记忆系统是其区别于普通 AI 助手的核心能力。通过三层记忆架构(工作区文件 + 向量索引 + 语义搜索),你可以让智能体拥有真正的长期记忆——记住你的偏好、项目上下文、甚至几个月前的对话细节。本文将提供三套可落地的配置方案,覆盖从个人用户到企业级部署的完整场景。
一、核心概念:OpenClaw 记忆系统如何工作
1.1 三层记忆架构
| 短期记忆 | |||
| 日记忆 | memory/YYYY-MM-DD.md | ||
| 长期记忆 | MEMORY.md |
关键洞察:OpenClaw 的记忆本质是纯 Markdown 文件。智能体只能”记住”写入磁盘的内容——没有文件,就没有记忆。
1.2 记忆工作流程
用户对话 → 智能体判断 → 写入 memory/ 或 MEMORY.md → 向量索引更新 → 语义搜索可用 自动记忆刷新机制:当会话接近压缩阈值时,OpenClaw 会自动触发静默回合,提醒智能体在上下文被压缩前写入持久记忆。
二、基础配置:5 分钟快速上手
2.1 工作区目录结构
2.2 最小可用配置
编辑 ~/.openclaw/openclaw.json:
环境变量设置(添加到 ~/.zshrc 或 ~/.bashrc):
2.3 验证配置
三、进阶配置:三种生产级方案
方案 A:本地优先(隐私敏感场景)
适用场景:企业内网、隐私敏感数据、无互联网环境
安装步骤:
性能数据:
模型大小:~600MB 内存占用:~1.2GB 索引速度:约 1000 tokens/秒(M1 Mac) 搜索延迟:< 100ms
方案 B:混合搜索(推荐生产配置)
适用场景:需要兼顾语义理解和精确匹配的通用场景
核心特性:
| BM25 + 向量混合 | vectorWeight: 0.7, textWeight: 0.3 | |
| MMR 重排序 | lambda: 0.7 | |
| 时间衰减 | halfLifeDays: 30 |
效果对比:
搜索 “home network setup”:
-纯向量搜索:返回 3 条关于路由器的笔记(内容重复)-混合搜索 + MMR:返回路由器配置、DNS 设置、VLAN 规划(覆盖全面)
方案 C:QMD 后端(大规模知识库)
适用场景:需要索引外部文档、大规模知识库、高级检索需求
安装 QMD:
# 方式 1:通过 Bun 安装buninstall-ghttps://github.com/tobi/qmd# 方式 2:下载预编译版本# 访问 https://github.com/tobi/qmd/releases# 验证安装qmd--version
QMD vs 内置后端对比:
四、实战技巧:让记忆系统更智能
4.1 记忆文件组织最佳实践
4.2 自动记忆维护(Heartbeat 配置)
编辑 HEARTBEAT.md:
4.3 会话记忆搜索(实验性)
启用历史对话索引:
注意:会话记忆默认关闭,需显式启用。
五、避坑指南:常见问题与解决方案
5.1 记忆搜索返回空结果
排查步骤:
常见原因:
API 密钥未设置或过期 记忆文件为空或格式错误 索引尚未完成(首次启动需要时间)
5.2 切换嵌入模型后需要重新索引
5.3 群聊中记忆搜索不工作
默认情况下,MEMORY.md 只在私聊中加载。如需在群聊中使用记忆搜索:
六、性能优化与监控
6.1 索引性能调优
6.2 批量索引(大规模数据)
OpenAI Batch API 优势:
价格比同步请求低 50% 适合大规模历史数据索引 异步处理,不阻塞对话
七、总结与行动清单
三种配置方案速查
provider: "gemini" | ||
provider: "local" | ||
hybrid.enabled: true | ||
backend: "qmd" |
立即行动
1.今天:复制基础配置,设置 API 密钥,测试记忆功能2.本周:整理 MEMORY.md 长期记忆文件3.本月:根据使用场景选择进阶方案,优化搜索体验
参考资源
OpenClaw 官方文档 - Memory QMD 项目 Gemini Embeddings API OpenAI Embeddings API
夜雨聆风