OpenClaw 知识库/知识图谱插件对比:graph-memory vs Cognee vs Mem0
背景
OpenClaw 默认使用 Markdown 文件 + SQLite 混合检索(向量 + FTS5 关键词),适合基础 KB,但对嵌套结构和复杂关系支持弱。
针对高级需求,社区和官方插件提供了图谱/嵌套增强方案。
一、五种方案对比
1. 默认混合检索
资源占用极低,但上下文易线性膨胀(7轮对话可达9万+ token),跨会话弱,推理仅相似度无多跳。
2. graph-memory 插件
SQLite 属性图 + 三元组提取,75% token 压缩(9.5万→2.4万),多跳推理强,跨会话自动复用。CPU 约 5ms/查询,内存 200-500MB。
3. Cognee 插件
外部 KG 引擎,自动将 Markdown 同步为知识图谱,支持多跳遍历。资源中等(内存 500MB-1GB),适合长周期项目关系推理。
4. QMD 插件
Hybrid Retrieval 优化,适合纯 KB 场景,可与图谱叠加使用。
5. Mem0 插件
自动事实提取 + 持久化记忆,跨会话能力最强,适合多用户/长期记忆场景。
二、选型建议
• 入门/低资源:默认 + graph-memory(75% 压缩 + KG 入门)
• 强关系/嵌套推理:优先 Cognee
• 纯 KB 检索优化:QMD
• 长期持久 + 自动提取:Mem0
• 最高性价比组合:graph-memory + Cognee + Markdown 源文件
三、部署提示
• 所有插件通过 pnpm openclaw plugins install xxx 一键安装
• graph-memory 支持 Ollama/vLLM 本地模型零 API 费用
• Cognee 需要 Docker 启动 KG 引擎
• 资源随数据量线性增长,数万节点仍保持毫秒级响应
本文信息基于 2026 年 3 月最新数据整理
夜雨聆风