你肯定遇到过类似的事情。
你跟豆包或者deepseek聊天,让他帮你做个什么事情,聊了半天之后,你再去问他你俩之前聊的事情,他给你来了一句:“我们之前有聊过这个么?没有吧”。
你:???
你可能觉得他怎么这么笨,怎么这都记不住。
其实都不是。
AI不是记不住,而是它从头到尾就压根没“记”。
先说个你肯定经历过的事儿

我们在上学的时候,老师一节课讲了很多的内容,从概念定义到例题讲解再到留下的练习题和作业,信息量巨大。在听课的时候觉得——嗯,都听懂了。
然后下课铃一响,脑子中所留存的记忆只有一节课中的一部分了。只能记住最后几分钟讲的东西,或者开头的东西,其他细节的内容已经变得模糊,中间的例题?好像讲过,但是具体的内容记不清了。
当然这不是你的问题,也不是我的问题,这只是大脑的生存策略。
人的脑子一下子也接受不了太多的信息。 老师一节课的输出量,远远超出我们能“原样存下来”的容量。 所以我们的脑子会自动做一件事压缩。 保留关键点,丢掉细节。 就像上课记笔记,不是老师说的每一句话都原封不动的记录下来,而是记一些比较关键的要点,课后看笔记的时候能够帮我们去回忆个七七八八。
但是“压缩”这个动作是有代价的。 压缩完,信息就会丢失了。 下课丢一部分,下节课学习新的内容又丢一部分,回家又丢一部分。 到了期末整个学期的内容忘记也差不多了——除非你反复复习,这样才能把那些关键点刻进长期的记忆中。
不得不在提一点,我们上课中认真听讲时通常记忆会留存的更加深刻一些,但是如果一天下来,所有的内容我们需要使用这种方式去记录下来的话,首先这是不现实的,其次这样的做法是非常非常累人的。这个点的描述就很像AI的“自注意力机制”,上下文不是很多时,AI的理解能力非常强,但是如果上下文过多多的达到一定的量了之后, AI 就也不知道什么是什么了。
人脑是这样,AI 也是这样。
AI的“脑子”: 上下文窗口
AI处理信息的方式,跟你上课听讲惊人的相似。
你跟AI说的每一句话,都会放进一个叫上下文窗口的地方。 你可以把它理解成AI的“脑子容量”——能同时装下的信息量是很有限的。
你跟AI说一句话,就往这里塞一条内容。AI每次回答你之前,都会把窗口里“所有的内容重新看一篇”。然后根据全部的内容去进行回复。
所以——它不是“记住了你说的话”,而是每次都重新读一遍。
还是我们上课的例子,老师讲的内容你并没有完全的记住,需要课后反复的消化吸收练习存储为自己的知识。
AI也类似这个状态,他从来没有记住过你,他只是把所有的聊天记录全都重新看一遍“记录消失了,那么他就“失忆了”。
上下文腐烂:下课之后又丢了一部分

上下文腐烂,听着比较偏技术的一个名词,也是memory(记忆)相关的一部分内容。
但是如果结合我们之前的示例把他理解成下课之后又丢了一部分也能瞬间秒懂是什么意思了。
说到这里可能会下意识的去想给AI一个更大的脑子,能多装一些是不是就能让他避免丢失信息了?
确实,这几年AI的快速发展,上下文窗口已经越做越大:
模型 | 上下文窗口 | 大概相当于 |
GPT-3.5(老款) | 4K Token | 3 页纸 |
GPT-4 | 128K Token | 一本 300 页的书 |
Claude 4 | 200K Token | 两三本厚书 |
Gemini 2.5 Pro | 100 万 Token | 一个小型图书馆 |
100 万 Token,听起来什么都能装下了吧?
但是这里有一个反常识的事情:窗口越大,AI 反而越笨。
还还记的上课那个感觉么? 老师一节课讲了很多,你当是觉得都听懂了。但是下课了之后,脑子对下课的最后那部分内容记得比较清晰,其他的就开始模糊了。
AI也是这样,他对最近说的内容记得很清楚,但越往前翻越模糊。 2025年研究者给这个现象起了个名字叫“上下文腐烂”(context rot)——当上下文超过一定长度之后,AI 对开头的内容的“记忆”就会明显变差。但是它不是忘了,而是信息量太大太杂,找不到重点了。
就像给你个超大硬盘,但文件全都堆在桌面上,没有分类、没有整理。 然后想要找某个东西的时候会越来越费劲。
所以,上下文窗口大 ≠ 记忆好。
上下文压缩:AI的 “记笔记”

我们的脑子在面对“装不下”的问题时,解决方案是记笔记——老师讲了一节课,你不可能逐字记,但是记个几行就能帮你回忆起来。
所以AI在面对同样的问题的时候,搞出了一个几乎一模一样的方案:上下文压缩。
这个是什么意思呢? 假设你跟AI聊了20轮关于去杭州旅游的事情,从查天气、选酒店、订门票、规划路线、到讨论要不要带着养的宠物,停车方不方便...
20轮对话,可能占了上万的token Agent 会在后台把这些内容浓缩成一段摘要。
“用户计划本周末去杭州,偏好湖景酒店,预算 1000 以内,不喜欢自驾(上次停车体验差),想带狗出行,上次去过西湖边的 XX 酒店评价不错。”
20轮对话 → 1 段摘要。窗口腾出来了,关键信息也没丢。
这就是上下文压缩的核心逻辑——保留“意思”,丢掉“废话”。跟你上课记笔记是一回事: 老师讲了一黑板,你只记了几行要点,但考试前翻一翻基本都能回忆起来。
这是这里有一个比较关键的区别: 你记笔记是你主动记的,你知道哪些重要,哪些不重要。AI的压缩是自动的——他用另一个AI模型来帮你“总结”,至于总结的准不准,就需要取决压缩算法的能力了。有时候关键细节就在压缩过程中被丢掉了。就像你的笔记漏了一个公式,考试的时候就怎么也想不起来了。
长期记忆:暑假一放,上学期的全忘了
短期的记忆在怎么压缩,关掉窗口还是会被清空,就像你期末考试结束暑假一放, 上学期的内容忘的也差不多了。
但有些东西你就是记得。
去年暑假去杭州玩儿,住过一家湖景房,早上开窗帘能拉开西湖。 那个感觉你一直都不会忘掉。你不需要回忆当时说的每一句话,但是你知道当时的景色有多么美丽和你喜欢的那个感觉。
AI的长期记忆也是这样,它不是把你所有的聊天记录都原封不动地存下来,而是把关键信息提取出来,存到一个叫向量数据库的地方。
向量数据库是什么?你可以把他理解成一个超级档案柜。但这个柜子他有个特别厉害的地方他存的不是原文,而是“意思”。
你跟 AI 说"我上次去杭州住了一家湖景酒店,挺不错",这个时候它不会存这段原文,而是存了一个"标签"——用户偏好湖景酒店、杭州旅行体验好。下次你再问它"帮我推荐个酒店",AI 会去档案柜里搜——"酒店"和"湖景"有关系,翻出来。它不是"记住"了原文,而是"联想"到了你之前说过的话。
这就是 RAG(检索增强生成)技术的核心——AI 不靠自己的"脑子"记住所有东西,而是有一个"外部档案柜"帮它记着,需要的时候去查。
所以AI的记忆到底有几层?
AI的记忆可以理解为有三层:
长期记忆。存的是印象,不是原文。会把关键的信息存到向量数据库(档案柜),需要用到的时候再去查。
短期记忆: 聊天记录存在上下文窗口中,满了就会自动压缩成摘要。
工作记忆:当前AI对话中正在处理的内容。
而Agent和聊天bot很大的区别就在于有没有后面两层:
工作记忆 | ✅ 有 | ✅ 有 |
短期记忆 | ✅ 有(但满了就扔) | ✅ 有 上下文压缩(浓缩而非丢弃) |
长期记忆 | ❌ 没有 | ✅ 有 (向量数据库 / 外部存储) |
跨会话记忆 | ❌ 关窗口就忘 | ✅ 下次打开还记得你 |
上下文压缩让 AI "记得久",长期记忆让 AI "记得住"。两个加在一起,才是 Agent 真正意义上的"记忆"。
跟你有什么关系呢?
明白了他的AI记忆机制,能解答了我们之前的很多的疑惑。
第一,别怪AI总“健忘”它不是不想记,是“脑子”不够大。下次AI再忘记你说的话 千万别生气, 要不把关键信息重新说一遍。 要不换个上下文窗口更大的模型,或者用Agent,让他来帮你“记着”。
第二,“AI记住你这件事儿”,已经开始发生了。ChatGPT 已经有了 Memory 功能,会自动记住你的偏好。各种 Agent 框架都有长期记忆系统。你的使用习惯、对话内容,正在被 AI "存档"。
第三,如果我们使用的是豆包,或者deepseek 这种网页版的聊天bot。如果你聊的多个话题是不相关的。最好是打开多个聊天的窗口,一个话题一个窗口,养成一个好习惯。
这当然是好事——AI 越了解你,服务就会越好。但是也要留个心眼:你愿意让 AI 记住你多少东西?这个问题,可能比"AI 能不能记住"更重要。
不是什么黑魔法,就是拼积木。只不过这块积木,现在学会了"记笔记"。
关注我,我们下期再见。
END
夜雨聆风