OpenClaw记不住事?我花了一下午,给它装了个"永久记忆大脑"
用 OpenClaw 的人,大概都碰到过这个场景:
一开始聊得挺顺,需求、约束、项目背景都交代清楚了,AI 也像是"听明白了"。
但对话一拉长,前面那些关键设定就开始往后掉。
你明明前面说过一遍,它还是会在后面突然"失忆",逼得你再提醒一次。
次数多了,真的会有点烦。
每次对话都要把上下文塞进去,越聊越长,Token 烧得越狠。
你以为在"记",其实只是在"复读"——真正的记忆,不是把聊天记录全塞进上下文,而是把关键信息提炼出来,下次能直接用。
AI 的"失忆",就像空荡荡的大脑
前两天我同步了一堆笔记到知识图谱,存的是:标题 + 摘要(200字)+ 原文链接。
当时觉得挺好,信息都有了。
结果今天想找一篇之前存的文章细节,发现链接已经打不开了。
链接失效,内容就没了。
摘要只有200字,很多细节根本存不下。
这不是"记住了",这是"抄了个地址"——房子拆了,地址还有什么用?
问题摆在那了,得解决。
我搜了一圈,看到 Supermemory 团队刚发布的 ASMR 系统:
- 99% 准确率,刷爆了 LongMemEval 榜单
- 抛弃向量数据库,抛弃 Embedding
- 完全在内存中运行
他们的思路很清楚:
让 AI 真正拥有记忆,而不只是检索。
核心创新是"多 Agent 协同编排"——
3个 Agent 并行阅读对话,分别提取 6 个维度:
| 维度 | 提取什么 |
| 个人信息 | 姓名、家庭、身份 |
| 偏好 | 喜欢/不喜欢 |
| 事件 | 会议、任务、项目 |
| 时序数据 | 日期、周期 |
| 信息更新 | 修改、变更 |
| 助手信息 | API、配置 |
3个 Agent 并行检索,每个有专属侧重点——一个找直接事实,一个找上下文线索,一个重建时间线。
更妙的是"自动遗忘"机制:
你说"我明天有个考试",等日期过了,这条记忆自动失效。
临时事实不会变成永久噪音。
看完我坐不住了——这套思路,我完全可以用到自己的笔记系统上。
第一步:存全文,不只存链接
之前只存摘要 + 链接,现在改成存全文(最多5000字)。链接失效也不怕,内容还在。
第二步:6 维分类
借鉴 ASMR 的观察维度,给每篇笔记打标签。以前只有"健康/职场/科技"这种大类,现在维度更细了。
第三步:实体提取
从内容里自动识别:人名、项目、日期、API Key 等。
第四步:用户画像
把分散在笔记里的个人信息聚拢起来。比如我在某篇笔记里写过"你最爱的人",系统自动提取,存入用户画像。下次我问"我最爱谁?",直接从画像里拿。
第五步:自动遗忘
识别临时信息——测试、明天、待办——自动打上过期时间。过期了就清理掉。
知识库就像整齐的大脑,分类清晰
说起来简单,做起来全是坑。
坑1:API 限流
IMA 的 API 有频率限制,请求太频繁会返回错误码 51。
解决:每请求一次等 0.8 秒,触发限流后等 2-3 秒重试。
坑2:中文编码
Python 的 `requests.post(json=...)` 会把中文转成 `\uXXXX`,导致数据异常。
解决:手动 `json.dumps(ensure_ascii=False)`,保留中文原样。
坑3:分页逻辑
API 的 cursor 分页格式和我预想的不一样,调了半天。
解决:打印返回结果,看清楚结构再写代码。
改造完,跑了下统计:
- 44 篇笔记,全部同步全文
- 77,328 字的内容
这就是进步的本质:把"这次学到的"变成"下次不用再学的"。
这些东西不是一蹴而就的——
是踩坑踩出来的。
每次遇到问题,解决完就往记忆里存一笔。
下次再遇到类似场景,不用重新摸索。
这就是进步的本质:
把"这次学到的"变成"下次不用再学的"。
参考文章:
《AI「永久记忆」来了!99%准确率刷爆SOTA》
Supermemory GitHub: github.com/supermemoryai/supermemory
大叔体验 · 2026-03-31
夜雨聆风