语义搜索 + 混合检索 + 智能重排序
Vector Memory 是 OpenClaw 内置的向量化记忆搜索系统,让 Agent 能够通过语义理解来查找记忆,而不仅仅是关键词匹配。
| 类型 | |
| 核心能力 | |
| 搜索方式 | |
| 定位 |
2.1 语义搜索(Semantic Search)
不再依赖精确关键词,而是理解语义含义:
2.2 混合搜索(Hybrid Search)
结合两种搜索方式的优点:
| BM25 | ||
| Vector | ||
| Hybrid |
2.3 支持的嵌入模型
OpenClaw 支持多种嵌入提供商:
| OpenAI | |
| Gemini | |
| Voyage | |
| Mistral | |
| Ollama | |
| GGUF 模型 |
2.4 高级特性
| MMR 重排序 | |
| 时间衰减 | |
| 多模态记忆 | |
| QMD 后端 |
3.1 架构流程
┌─────────────┐ ┌─────────────┐ ┌─────────────┐│ 用户输入 │───▶│ 向量嵌入 │───▶│ Milvus │└─────────────┘ └─────────────┘ └─────────────┘ │ ▼ ┌─────────────┐ ┌─────────────┐ │ BM25 索引 │◀───│ 混合检索 │ └─────────────┘ └─────────────┘ │ ▼ ┌─────────────┐ ┌─────────────┐ │ MMR 重排序 │───▶│ 返回结果 │ └─────────────┘ └─────────────┘3.2 记忆存储
格式:Markdown 文件 位置:workspace 目录 索引:自动向量索引 可读性:纯文本,人可读可改
4.1 搜索效果对比
4.2 性能对比
5.1 基本配置
{"memory":{"vector":{"enabled":true,"embeddingProvider":"openai","model":"text-embedding-3-small"}}}5.2 混合搜索配置
{"memory":{"vector":{"hybrid":{"bm25":true,"vector":true,"weight":0.7}}}}5.3 MMR 重排序配置
{"memory":{"vector":{"mmr":{"enabled":true,"threshold":0.7}}}}6.1 Memsearch(提取版)
| 来源 | |
| 向量库 | |
| 存储 | |
| 特点 |
"We took the exact memory architecture from OpenClaw and built memsearch — a standalone, plug-and-play long-term memory library."
6.2 Hindsight(增强版)
| 开发 | |
| 定位 | |
| 特点 |
✅ 推荐使用 Vector Memory:
需要语义理解的专业查询 复杂多层次记忆检索 需要多样性结果的场景 对相关性要求高的任务
❌ 可不用:
简单关键词搜索 资源极其受限 离线优先场景
| 语义搜索 | |
| 混合检索 | |
| 多提供商 | |
| 高级特性 | |
| Markdown 存储 |
一句话总结:
Vector Memory = 让 OpenClaw 具备"理解"能力的记忆搜索系统
如果你需要更智能的记忆检索,Vector Memory 是官方推荐的选择!
本文由光头佬撰写 | 2026-03-28
夜雨聆风