前面讲完了coding plan 和本地模型搭建的选择,我们继续下一个问题。
很多刚用 OpenClaw 的小伙伴,都会被「记忆系统」这件事搞懵。
装了一堆 Skill,结果:
○ 昨天不是都跑通了吗,今天怎么又犯同样的错误
○ 记忆碎片化,想找的时候找不到
○ Token 消耗失控,钱包在滴血
今天我来分享一套适合新手的记忆搭建组合:有效、不臃肿、长期好用。
先搞清楚:OpenClaw 原生记忆是怎么工作的
在你装任何 Skill 之前,先弄清楚 OpenClaw 自带什么。
OpenClaw 默认有一套三层记忆体系:
① 向量记忆(最核心) 把对话内容转成数学向量,存进 SQLite,下次问相关话题时自动召回。说简单点就是按话题存储记忆内容。
② Compaction 机制 对话太长时自动压缩,把重要内容分流到 memory/YYYY-MM-DD.md 日记文件里。这个是自动的,你不用管。
③ daily notes 每天的对话日志,存放在 memory/ 目录下,纯文本,可读性好。
这套原生系统已经能跑,但不完美——它不会主动整理,记忆会越积越乱。
市面上记忆类 Skill 那么多,到底哪些值得装?
我把市面上 50+ 个记忆类 Skill 全测了一遍,分成三个梯队:
第三梯队:不建议 ❌
smart-memory | |
openclaw-memory | |
memory-on-demand | |
agent-memory |
第二梯队:可用,但要看场景 ⚠️
neural-memory | ||
memory-qdrant | ||
fluid-memory |
第一梯队:真正值得用的 ✅
**memory-setup-openclaw**(评分 3.617)
○ 作用:帮你诊断现有配置有没有漏洞
○ 适合阶段:刚入门时检查配置用一次就够了
○ 优点:零成本,知道缺什么
**memory-tiering**(评分 3.664)
○ 作用:把记忆分成 HOT / WARM / COLD 三层
○ HOT:当前会话的活跃信息
○ WARM:用户偏好、系统配置
○ COLD:历史决策、长期总结
○ 触发方式:compaction 时自动整理,手动喊「整理记忆层级」也能触发
○ 优点:简单有效,不增加任何依赖
**memory-never-forget**(评分 3.548)
○ 作用: Atkinson-Shiffrin 三阶段记忆模型 + Dream 自动整理
○ 核心思路:新信息先进日记 → 每天 Dream consolidation 自动晋升到4类长期记忆
○ 4类分类:user(用户偏好)/ feedback(纠正反馈)/ project(项目决策)/ reference(资源链接)
○ 优点:自动化程度高,长期记忆质量有保障
○ 缺点: Skill 本身是规范文档,需要按它的框架执行
新手黄金组合:两件套就够
组合一:最小化(推荐入门)
Skill:
1. memory-setup-openclaw × 1
2. memory-tiering × 1
为什么是这两?
○ memory-setup-openclaw 帮你检查配置是否正确
○ memory-tiering 让你有一套基础的整理流程
两件套加起来,Token 开销接近零,系统完全不臃肿。
组合二:进阶版(有一定定制需求)
在组合一基础上加: 3. memory-never-forget
○ 每天 20:30 自动执行 Dream Consolidation
○ 日记自动晋升到4类长期记忆
○ 超过3条同类记忆自动合并成知识文档
优点: 长期记忆质量最高,系统越跑越聪明。
缺点: 需要配合定时任务,适合愿意让 AI 自主运转的人。
不同方案的优缺点对比
我不推荐什么
不要一开始就学我之前踩过的坑:
○ 不要装超过 3 个记忆类 Skill,功能会重叠
○ 不要用需要独立服务的方案(FastAPI/Python 后台),除非你懂运维
○ 不要装依赖 OpenAI API Key 的方案,本地 bge-m3 完全够用
○ 不要追求「全自动」而忽略可控性
写在最后
记忆系统的核心目标是:需要的时候能找得到,不用的时候不捣乱。
对于大多数用户来说,「原生 + memory-tiering」已经足够好了。
如果你愿意让 AI 多自主运转一段时间,加上 memory-never-forget,每天自动整理记忆,长期效果会让你惊喜。
一句话总结:
新手用两件套(memory-setup + memory-tiering),进阶玩家加 Dream Consolidation(memory-never-forget),完全够用,别贪多。
关注,不迷路
让我们一起搭建属于自己的贾维斯
夜雨聆风