
前两天跟 ChatGPT 聊一个项目,聊了大概三十轮,我说了一句「你记得我之前提过的那个方案吗」,它回了句「你没有在之前的对话中提到过这个方案」。
但我明明说过。。。
一、记忆一定是图式的
我先把结论放在这里。记忆一定是图式的,只有图式结构才能真正降低搜索复杂度,降低上下文消耗的压力。文件目录式 memory 不会是答案,RAG 也不会是答案。
它们都是当下最好的工程妥协,但不是答案。
你想想看,人类的记忆是怎么工作的。你想起「高中班主任」的时候,不是一个文档路径,而是一整个网络,她的脸、她的声音、她说过的某句话、你当时的感受,全都在一瞬间同时涌现。这就是图式,你脑子里那些已经组织好的知识框架。图式让你不需要每次都从底层细节开始处理信息,它是一种压缩,一种预组织的索引。
记忆如果是图式的,搜索复杂度就会大幅降低,上下文消耗也会降低。你只需要激活相关的图式节点,细节会自动补全。这才是记忆该有的样子。
二、RAG和文件式的记忆都不是答案
聊聊现在主流方案。LangChain 早期的 Memory 模块,要么全量塞 prompt,要么滑动窗口,要么压缩摘要,后来它自己都标记成了 legacy。ChatGPT 的 Memory,自动提取记忆条目注入 system prompt,但它经常记错,你根本不知道它到底记了啥。MemGPT 借鉴操作系统搞了三层架构,思路有意思,但说到底还是在解决线性上下文窗口的管理问题。
RAG 为什么不是答案?它的逻辑是把信息存到向量数据库里按语义相似度检索。知识问答场景好使,但记忆不是知识问答。记忆需要的是一个结构化的、已整合的心智模型,不是每次检索出来的几条散落记录。
文件目录式 memory 呢?Claude Code 的 CLAUDE.md 比 RAG 更有结构感,但文件目录是人设计的结构,不是 Agent 自己形成的心智模型。我自己用 Claude Code 就踩过这个坑,memory 文件越来越多,过时的还在、新的不知道往哪放,最后得手动清理。如果记忆需要人来维护,那它就不是一个好的记忆系统。
三、记忆的关键是反思
我觉得答案可能藏在一个被很多人忽略的地方,Stanford Generative Agents。2023 年斯坦福虚拟小镇实验,最关键的一层是反思机制,Agent 会定期对记忆进行高层抽象和总结。这个反思机制就是图式的雏形。
说实话我也不确定图式记忆在工程上该怎么实现。但我始终坚信,记忆这个问题的答案,不会来自更好的向量检索算法,不会来自更大的上下文窗口,也不会来自更精巧的文件目录结构。它会来自对「记忆到底是什么」的重新理解。
心理学家 Bartlett 在一百年前就说过,记忆不是回放,是重建。AI 的记忆,最终也得走到这条路上来。
夜雨聆风