乐于分享
好东西不私藏

龙虾真正的“脑子”不是插件,是你的批评——OpenClaw记忆系统实战

龙虾真正的“脑子”不是插件,是你的批评——OpenClaw记忆系统实战

再强的记忆插件,都不如你的一顿批评和一句命令

当 GPT 类模型首次出现时,我陷入了“套壳焦虑”——它们很强,但似乎永远是公共助理,记不住我的偏好,更学不会我的做事方式。直到 2026 年,OpenClaw“龙虾”,才发现 AI 智能体真正的灵魂不在于参数多庞大,而在于它的记忆系统 会不会复盘、懂不懂进化

开篇先给结论:OpenClaw 记忆系统的演进我梳理为五个里程碑。 同时,我踩的坑和复盘出来的经验,目的是帮你避开常见的雷区:

  • Node 版本必须  24,否则关键依赖 FTS5 无法安装。

  • 记忆插件虽多,但别乱用,如果数据量不大,前两个(mem core 和 active mem)绰绰有余。

  • 记忆不是死记硬背,关键在于“做什么、为什么、追问再复盘”。

  • 经验是 AI 唯一的进化途径,命令 > 关闭 > 复盘 > 记录 缺一不可。

  • 想拥有真正懂你的“数字员工”,你的每一句经验和批评都必须变成 AI 可读取的规范指令

一、环境避坑:为什么 Node 版本必须是 24

OpenClaw 存在环境兼容性问题,为了方便后续升级,最好通过 nvm 安装 Node 24。如果你用了其他版本(尤其是 22 或 23),大概率会因为 fts5 全文索引引擎安装失败而导致无法启用后面的记忆插件。

二、四种记忆模块怎么搭:第一个和第二个是“绝对主力”

OpenClaw 的 4.26 版本记忆插件,一共有四种:

记忆插件
可用性
核心用途
场景建议
Memory Core
✅ 默认开启
SQLite + Markdown 原生记忆
所有用户的刚需标配
Active Memory
✅ 可手动启用
异步记忆、多模态对话记忆增强
需要智能抓取关键信息的进阶用户
Memory LanceDB
❌ 有坑慎用
向量语义检索(走 API 和流量)
除非数据量极庞大,否则别碰
Memory Wiki
✅ 按需启用
结构化 Wiki 知识库,可溯源,可修改
团队协作、多人共享的知识仓库

简而言之,前两个对你当前 99% 的场景足够了,后两个是锦上添花,不是救命稻草。

优先级最高:mem core + active mem

memory-core 是默认的记忆引擎,它会把你写入磁盘的记忆以 Markdown + SQLite 的方式保存,并通过 FTS5(全文搜索索引)快速检索关键词。这一层是所有“基础经验”存放的地方。

而 active memory 更为主动——它通常具备自动预检索功能,能在你未明确要求时,提前根据对话的上下文和历史模式,从记忆中获取可能用到的信息,以便快速响应。这种预检索能力使得 AI 不再是“你问一句它搜一次”,而是像一个真正了解你习惯的助理,在你开口之前就已经准备好了答案。

Memory Wiki 的妙用:记忆可“溯源”,团队合作的最好选择

memory-wiki 虽排在第三第四,但它的核心价值不可忽视。它不同于 memory-core,是将长期记忆编译成一个结构化的知识库,形成可确定的页面、声明、知识来源,并允许团队成员修改/优化这个“团队记忆库”。

如果你正在做开源项目,或者需要和团队共享一个 AI 智能体,memory-wiki 无疑是利器。这相当于你的 AI 助手里有一个“可共享、可溯源、可修订的离线 Wiki”,让 AI “不光有记忆,还能懂逻辑”

第三插件 Memory LanceDB 目前建议“慎用”的原因只有一个:它会需要 Embedding 模型,消耗 API 费用和流量。除非你的本地数据规模极其庞大,或者必须用到 LanceDB 向量数据库的性能,否则它容易变成“钱包刺客”。

三、不做复盘的 AI,再顶配也只是“高级复读机”

很多人装上记忆插件,以为万事大吉,最后却发现——龙虾 AI 依然无法真正理解你的行为习惯。为什么?

核心问题在于:知识写入后,极少复盘,缺少“为什么”这个灵魂要素

OpenClaw 的初始逻辑是“只有你主动告诉它,它才去记忆”。假设它写了一个脚本,创建 Python 虚拟环境,你嫌占空间。如果你只是删除后重启聊天而不给反馈,AI 就永远不知道为什么浪费空间是错误的。

要让 AI 真正进化,关闭会话前的最后一步,应该是“复盘和追问”:

1)任务执行完之后,立即问 AI:为什么?

例如,你的 AI 生成了一个脚本,但它的py虚拟环境占用了 200 MB 磁盘,你一定要追问:

为什么你要重新创建 Python 虚拟环境?之前不是已经有现成的环境可用吗?记住:以后必须复用现有虚拟环境,优先选用三方依赖缺失最少那个——不要浪费磁盘空间。

就这一句“为什么 + 明确规范”,就让 AI 把内存占用、存储管理变成了内化的记忆。它再次执行任务时,就会优先遵循这个“复用原则”,而不是每次傻傻地新建环境。

2)“指令+点评”叠加写入:不仅存事实,还要存偏好

OpenClaw 的 memory-core 默认是将你写入的内容直接保存,同时也需要批判性反馈(批判 ≠ 责备,而是“这样更好”)。实操中可以通过自然语言命令让 AI 记住以下偏好:

text

- 输出语言:尽量使用简洁清晰的中文
- 存储偏好:生成代码或各类脚本时,必须放在 OpenClaw 工作空间中
- 环境选择:修复依赖时必须复用现有 Python 环境,而非创建新的

这样一来,即便下次你没有明确下达这些规范,龙虾依然会把这些“偏好”和“指导思想”当作自带的先天记忆。

知识存储如果不复盘,就等于你雇了一个勤快的实习生,干完活却没有任何标准操作流程,最后只会是瞎忙。

四、龙虾为何成为你的“数字分身”:记录 + 修正,缺一不可

如果你想让 AI 在 跨会话、跨设备、跨网络 的记忆中依然做对事,必须把以下机制变成常态:

只有当天“写好记录”,才能让它次日“记得你”

OpenClaw 的每日日志存储在 memory/YYYY-MM-DD.md,但这不需要你手动编写。你只需要在会话中给出清晰的指令和反馈,AI 会自动将关键决策、环境规范、项目约定等内容写入长期记忆。你无需手动编辑任何 Markdown 文件——记忆系统会替你完成持久化。

核心原则:你给 AI 的每一条修正指令,都是在训练它成为更好的你。

五、进阶实战:让 AI 经验自动进化的几点总结

最终,你的“数字龙虾”能不能帮你打下江山,就看下面几点是否做到位:

  1. 解决“基本温饱”:Node = 24(通过 nvm 安装)、mem core + active mem 双开、配置文件中明确启用主动记忆。

  2. 引入主动复盘点评 > 修改 > 记录,一个命令一个坑。

  3. 利用 Memory Wiki 做团队溯源:团队协作场景下,使用 memory-wiki 保证每一条记忆都有来源、可信任、可回滚。

  4. 学会评价:生成的代码如果不合预期,直接告诉它“这样不对,因为……下次请……”。

我见过太多人装完 OpenClaw,对话结束后直接“叉掉”窗口,关掉了所有的复盘机会。所以,如果你问我龙虾成长最快的 SOP 是什么?

命令 → 关闭 → 复盘 → 记录。 再好的记忆系统都只是工具,真正的核心在于:你有没有把一块璞玉打磨成专属的稀世之珍。