乐于分享
好东西不私藏

AI跨对话的记忆何时有?#10

AI跨对话的记忆何时有?#10

为什么AI总是一次对话后就把你忘得一干二净?这不是某个产品的缺陷,而是当前所有AI助手的共同困境:没有长期记忆。这种健忘背后,是当前AI记忆技术的固有局限。

AI助手的记忆能力,从技术实现上分为三个层次,每个层次都有其功能边界:

第一层:短期记忆(上下文窗口) —— 负责当前会话内的信息保留;

第二层:参数记忆(模型权重) —— 主要存储预训练过程中习得的世界知识,具有静态属性,其更新需通过重新训练(即微调)实现,不仅成本极高,且无法实现个人用户的定制化记忆留存;

第三层:外部记忆(检索增强生成/RAG —— 临时调用用户历史信息。

这三层中,前两层无法跨会话保留用户信息,第三层也只是临时检索而非真正的持续记忆。用户期待的记住我”“越用越懂我的核心需求,恰恰是当前这三层记忆技术的短板——长期记忆,已成为AI工具型伙伴型进化的核心瓶颈。

关于AI的长期记忆,目前能看到的信息要么是艰深的学术论文,要么是零散的厂商新闻。本文尝试填补中间的空白——用尽可能清晰的语言,为关注AI发展的非技术读者梳理这个领域的技术路径、最新进展和待解问题。

一、AI记忆到底长什么样?

要理解AI为什么健忘,我们得先看清它现有的三种记忆

1. 短期记忆:

技术上:指模型在一次会话中能保留的信息量。当你和AI聊天时,它能记住本轮对话里说过的话——这得益于上下文窗口。当前主流模型如DeepSeekGPT-4Claude 3系列支持100-200tokens,相当于能记住一本书的内容。

功能上:它负责当前对话的连贯性,但会话一结束,窗口即关闭,所有信息清空。因此,用户在同一会话中感觉AI“记得住,但下次对话就是陌生人。有经验的用户,现在知道一个主题的讨论不要换对话窗口,持续问答,就可以让AI助手记得上下文,而不是每次重述之前的关键信息。

2. 参数记忆:

技术上:模型通过预训练将海量知识固化在参数中,这部分是静态的,更新需重新训练(即微调),成本极高。参数记忆本身具有静态属性,微调是对参数记忆的补充优化而非独立的记忆类型,无法为个人用户定制化更新。

功能上:它让AI拥有通识能力,但无法为个人用户定制。无论你与AI对话多少次,模型参数都不会为你微调”——你的偏好、经历,都无法被刻入模型本身。

3. 外挂记忆:

技术上:将用户历史信息存入外部数据库,每次对话时检索相关片段拼接到当前上下文中。目前绝大多数AI助手(包括豆包、千问、ChatGPT)采用的方法是RAG(检索增强生成):把你的历史信息存入外部数据库,就像临时调用的档案袋,每次对话时临时检索相关片段,拼接到当前对话中。

功能上:这是目前最接近跨会话记忆的方案。但它的本质是临时提词”——每次对话都需要重新检索,无法主动更新、遗忘或结构化积累。用户感觉AI“好像记得,但一旦信息检索不到或拼接位置不当,就会显得忘了

二、为什么扩大窗口解决不了根本问题?

有人可能会说:那把窗口再扩大不就行了?让AI记住一整年的对话!

技术上可行,但逻辑上不对。原因有三:

第一,计算成本随窗口长度增长。模型处理长上下文时,虽然不需要像人一样逐字重读,但每增加一个词,都会增加整体的计算量。原因在于:模型需要通过注意力机制评估上下文中的每个词与当前问题的关联度,上下文越长,需要计算的关联对就越多,对内存的占用也越大。

在同一个对话窗口中,随着对话轮次增加,上下文不断累积。当你问到我之前提到的那本书叫什么时,AI确实能从历史中找到答案——但为此,它需要处理的上下文长度是当前对话的全部历史。对话越长,处理成本越高。这也是为什么,对于超长对话,更高效的做法不是让模型每次都处理全文,而是将历史信息提炼成结构化记忆,需要时精准调取。

第二,跨会话不共享。即使窗口能装下百万tokens,你今天聊完关掉App,明天新对话依然从零开始。窗口再大,也跨不过会话的边界。

第三,信息无法结构化。长窗口只是让AI看到原文,它分不清哪些是核心偏好,哪些是临时闲聊。

所以,解决长期记忆的关键不在于拉长,而在于 “结构化跨会话

三、一个理想中的“AI长期记忆系统

基于对前沿研究和现有产品雏形的观察,一个能真正记住你的AI,应该具备这样四个层次的设计:

[第一层]:记忆提炼——全文要点

每次对话结束后,AI不会把所有内容都存入记忆库,而是进行压缩提炼:

• 哪些是用户的核心偏好?

• 哪些是重要事实?

• 哪些是需要长期跟进的?

这些提炼出的记忆碎片会被打上标签——时间、话题、重要性、情感倾向。就像你读完一本书后写的读书笔记。

[第二层]:分层存储——给记忆分级

不是所有记忆都需要随时在线。一个聪明的记忆系统会把记忆分为三个层级:

• 热记忆:当前对话正在讨论的(在模型窗口内)

• 温记忆:最近高频出现的、可能随时需要的(在高速缓存)

• 冷记忆:历史长尾信息、很久没提过的(存到低成本存储,需要时调取)

冷记忆并不存储完整内容,而是存储一个指针”——指向原始对话的索引。当你提到相关话题时,系统根据指针去拉取详细内容。这就好比图书馆的书目检索:你知道书在哪个书架。

[第三层]:持续丰富——形成你的“AI孪生体

随着对话次数增加,关于你的信息会不断累积。理想状态下,每一次交互都在丰富一个属于你的数字分身:

• 基础属性:年龄、职业、家庭、所在地

• 偏好:饮食禁忌、娱乐喜好、审美倾向

• 状态:当前情绪、健康状况、近期关注

• 关系网:亲友、同事、重要联系人

• 经历:教育背景、工作履历、旅行足迹

• 目标:短期愿望、长期理想

这个“AI孪生体不是散乱的记忆碎片,而是一个有结构的、不断进化的信息体。它像一面镜子,映照出AI对你认知的完整程度。

[第四层]:本体先行——先有框架,后填内容

这是最高明的一层设计:在第一次对话之前,系统已经有一个关于的通用框架。这个框架就像一张人的信息地图,告诉AI

• 一个人可能会有哪些方面的信息需要记住?

• 这些信息之间可能有什么关联?

• 哪些信息是基础性的,哪些是动态变化的?

然后,在一次次对话中,AI把获取到的信息填入这个框架。当框架中某个维度信息不足时,AI甚至可以主动提问:您上次提到正在看房,需要我帮您关注西城区的房源动态吗?

这种框架先行的方式,让记忆变得高度结构化、可推理、可干预。你不是在和一堆碎片对话,而是在和一个对你有整体认知的智能体交流。

四、前沿技术正在逼近这个图景

这个理想图景并非空中楼阁。2025年底至2026年初,多项突破性进展正在推动该理想图景落地:

1. DeepSeek Engram架构

20261月发布的Engram论文,首次在大模型中实现了记忆与计算的分离。它的核心创新是引入专门的记忆痕迹模块,负责存储和回忆历史信息;同时采用记忆压缩技术,将冗长对话压缩成紧凑表示(相当于将100页的对话文本提炼为1页核心笔记),存储在CPU内存中,需要时快速调取。

效果令人振奋:在长文本记忆任务中,准确率从84.2%提升至97.0%;部署成本从数万美元降至一千多美元。这被认为是长期记忆走向实用的关键突破,推动长期记忆技术从实验室走向实际应用,为普通用户未来使用该技术奠定了基础。

2. MemGPT:无限上下文的虚拟内存

MemGPT借鉴操作系统思想,通过自动触发记忆换页,让LLM能处理超出上下文窗口的对话历史。旧对话被归档压缩,需要时再加载,实现无限上下文的效果,其核心价值在于突破上下文窗口的局限,让AI能够处理更长周期的对话历史,进一步贴近长期记忆的需求。

3. Google Titans架构

2025年底发布的Titans研究,引入在线学习机制,让模型能在推理过程中持续更新记忆,而不是依赖静态训练数据。它更核心的贡献是动态记忆管理(惊喜指标、遗忘门控等),为AI记忆的持续更新与高效管理提供了重要技术支撑,让记忆更具灵活性与实用性。

4. 微软Recall

Windows 11Recall功能,虽然主要是用户操作记录,但结合AI后可实现跨应用、跨时间的智能检索。它并非严格意义上的AI对话长期记忆技术,但为跨场景、跨时间记忆系统的研发提供了重要工程参考,预示着未来操作系统层面对记忆的支持。

5. EverMind EverMemOS

20263月,盛大孵化的EverMind团队发布分层记忆架构EverMemOS,将对话拆分为情景轨迹语义整合重构回忆三阶段,在LongMemEval等基准测试中准确率超过90%,并已开放云服务内测,为分层记忆系统的落地提供了可行方案。

6.国内方面,字节跳动豆包已启动用户级记忆功能试点,可实现跨会话用户基础偏好的留存;百度文心一言结合ERNIE知识库,正深入探索RAG技术与个人记忆的深度融合,逐步解决AI“跨会话失忆的行业痛点,体现了AI长期记忆技术全球同步推进的发展趋势。

五、记忆的另一面:隐私、控制与遗忘

如果AI真的拥有了你的长期记忆,它也会带来全新的问题:

1. 隐私风险:记忆意味着数据需要长期留存。这些信息如何存储?谁能访问?特别是敏感信息一旦泄露,后果远比单次对话严重。

2. 遗忘的权利:人需要遗忘来疗伤,AI是否也需要被遗忘权?如果你想让AI忘记某件事,它应该能执行。

3. 记忆的可控性:用户能否查看AI记住了什么?能否像整理相册一样,编辑、删除、整理自己的记忆库

4. 记忆的边界:AI应该在多大程度上使用记忆?如果它记得上次令你尴尬的细节,下次对话时主动提及,是贴心还是冒犯?

这些问题的答案,将决定长期记忆技术最终以什么形态走进我们的生活。

六、当AI真正记住你,它会成为什么?

想象一下,当长期记忆不再是奢望:

• 它记得你的家用日常采购习惯,会按照周期推送采购物品清单、新品推荐、附近的供应信息变化

• 它知道你习惯晚上处理邮件,会在这个时段优先推送提醒

• 你和AI讨论旅行计划,它记得你上次犹豫的酒店、你喜欢的航班时段、你提过的预算上限

• 它记得你半年前提到想学钢琴,现在会问:还记得学钢琴的计划吗?需要我推荐附近的成人钢琴班吗?

这样的AI,无论它存在的物理形态如何,不再是每次都需要自我介绍的工具,而是一个越用越懂你的伙伴。它拥有关于你的知识,也拥有运用这些知识为你服务的能力,实现了人与AI的深度协同。

从这个意义上说,长期记忆不是AI的一个附加功能,而是它从工具进化到伙伴的必经之路。正如一位研究者所说:没有记忆的智能,就像没有过去的灵魂。

&&&&&&&&&&&&

我们离这样的AI还有多远?

从技术进展看,基础性的跨会话记忆功能,也许就在未来一两年内成为主流AI助手的标配——届时,用户将无需在每次切换对话时重复表述自身偏好或对话历史,彻底解决AI“健忘的核心痛点,实现AI与用户的深度适配。

而更完整的“AI孪生体,则需要我们共同探索隐私、伦理与技术的平衡。如果那一天真的到来,你打开一个新的AI对话时,听到的第一句话或许不再是你好,有什么可以帮你的,而是:

嗨,好久不见。上次你提到的那件事,我帮你关注了一下……”

(本文选题、框架及核心观点由作者独立构思,在AI辅助下完成资料梳理与初稿撰写,经作者手工修改后定稿,并经DeepSeek和豆包交叉确认原创性)

(注:本文信息基于截止到2026年3月公开报道。市场格局动态变化,请以最新信息为准。各App功能可能持续更新,请以实际版本为准。)

(本文插图除标明原创外,为豆包AI助力生成)