
十年后我们可能要保护那些会“古法编程”的程序员——因为出了问题之后,没有人会修。
在 2026 GDPS 大会上,这句来自产业一线的调侃,揭示了 AI 记忆能力爆发后人类面临的真实处境。
当 AI 从单纯的“问答工具”进化为拥有记忆、能深度介入企业运转逻辑的 Multi-Agent 网络,人类正面临一场前所未有的范式转移。
现在的 AI 已经不再是一个即用即走的工具,正在长出类似人类专家的反馈回路。这直接引爆了一个尖锐的现实危机——当机器能够轻易人的教育周期,人类曾引以为傲的“经验”是否将彻底沦为冗余?
记忆张量 MemTensor 在 2026 GDPS 大会上主办的《记忆及协作|OpenClaw 时代的企业 Multi-Agent 协作指南》论坛,将这个极具压迫感的话题抛向了台前。在一场主题为“当 AI 拥有记忆,人类何去何从”的圆桌讨论中,五位站在 AI 浪潮最前线的嘉宾,围绕技术演进与社会变迁展开了激烈碰撞。

参与本次圆桌的嘉宾有:
记忆张量MemTensor CEO 熊飞宇
Dify 联合创始人 延君晨
上海创智学院数字基础设施部副部长 侯金龙
上海交通大学人工智能学院研究助理教授 温睦宁
主持人:记忆张量MemTensor CTO 李志宇
圆桌一开始,讨论的话题就是 AI 记忆——整个 Memory 和传统大模型,本质上到底在改变什么?当 AI 不只是生成内容,而是开始沉淀、调用并重写组织记忆时,它是否也需要像人类一样学会遗忘?在数据成为核心资产的今天,“记忆主权”又该归属企业还是个人?
现在,记忆系统已经足以承载组织经验的沉淀与传递,一个更残酷的问题也随之浮现:传统企业中承担“上传下达”职能的中层管理,是否会被无情抹除?
当话题推演至 “1% 的人借助 AI 完成 99% 的工作”的极限社会图景时,所有的技术探讨最终回归到了一个关乎人类命运的共识——在这场重塑一切的变革中,人类正站在与 AI 共生进化的新的起点上。
以下是圆桌实录。
AI记忆——替代能力,还是替代成长路径?
主持人:非常感谢在场的各位朋友参与我们今天下午最后的圆桌环节。我是今天的主持人李志宇。我们今天的圆桌主题会从整个技术的内核到社会的转变,一起讨论 AI 和 Memory 可能给大家带来的影响。
今天讨论的第一个议题是:AI 到底在替代我们的能力,还是在替代人类成为专家的整体路径?
以前我们谈模型,更多是看它本身的能力——能不能回答问题、能不能生产内容。到今天,我们关注的已经不只是模型能力本身了,而是它能不能记住你、未来能不能用得更好。
以前人要成为专家,会经历一个漫长的成长过程——面临很多低水平的试错,慢慢从错误中学习。今天有了能力比较强的 AI 之后,它可能一开始就给你一个 80 分的答案,让你很快获得一定专家水平的能力。
AI 到底是替代了你的成长过程,还是能让你从笨到聪明的过程变得更短?整个 Memory 和传统大模型,本质上到底在改变什么?
延君晨: 我来开个场。两周前我在北京一所私立学校做分享,第一个议题就和这个几乎一样——当 AI 已经能批量产出 80 分内容的时候,教育的意义是什么?换句话说,AI 到底是在批量生产智能的结果,还是在批量生产智能本身?
人类如何从一个小工到专家呢?如果在座有程序员的话,以前可能都看过一本书叫《从小工到专家》,它展示了软件工程师的自我迭代之路。但AI可能直接跳过这个过程,造成人才断代——我们很难再完成从 60 分到 90 分的积累。这其实挺危险的。我有一个段子:十年之后我们可能要保护那些会"古法编程"的程序员,因为出了问题没人会修。
熊飞宇: 我的理解是,这波 AI 浪潮中,我们与 AI 的关系要做到 Human on the loop——关注的是如何让 AI 和 AI 之间产生更多联系。我们的开发工具、研发基础设施,应该更好地面向 Agent 进行编程。包括 MemOS,它的终极用户不是人,而是 Agent 本身。
主持人: 前面演讲嘉宾也聊到了上下文在智能中起到的作用。在您看来,记住上下文为什么会变成在未来形成杠杆的能力?
延君晨:我要再加工一下这个问题。上下文工程是 Agent 的核心能力,这点我同意。但单纯的上下文工程不代表 Agent 的全部能力。从 2022 年到现在,大家做的一切本质上都是上下文工程——Dify 的 workflow、OpenClaw、最近流行的 Harness,都是。
关键是要构建一个反馈回路。AI 在一个容器中——云上的服务器或你的个人电脑——与你进行环境交互,在这个过程中沉淀形成记忆,这些记忆再被加工成经验,甚至通过某些方式训回模型中。这个反馈回路才是更重要的。像 Kimi 2.5 这种形态,它已经可以进入一个具体的角色和工作中,通过与环境的交互形成自己的上下文,再进行自我迭代。那我就不需要再费劲写各种 Markdown、给它技能,它自己就能完成。
现在为什么还需要上下文工程?最核心的原因是上下文太小了,只有200K,而有效上下文远比这个小,留给开发者的可能只有几十K。所以这是一个过渡阶段。大家还是要关注怎么构建反馈回路。Harness 这个词很精准,构建 Harness 比较重要,不用太纠结于具体的提示词工程。
人类经验 vs AI 记忆,哪种更可靠?
主持人:人类的经验跟 AI 的记忆,哪种形态会更加可靠?这个问题我想抛给侯老师跟温老师来讨论一下。
侯老师: 我觉得要看使用场景。AI 的记忆在一些可以验证、规则明确的场景中,相对人类有比较明显的优势。比如国际象棋或围棋,AI能很快学习几百万棋局,而人类做不到。但人类在问题比较模糊、边界不够确定、需要做权衡的场景下,经验是非常有价值且不可替代的。
不知道大家有没有看过《生命 3.0》?里面提到一个经典场景:冷战时期苏联军队接到一个核报警信号——美国正在攻击莫斯科。如果AI来做决策,很可能就是反击。但当时的值班军官凭直觉判断这很可能是个误报,没有第一时间反击,才避免了第三次世界大战。在直觉和风险判断这些方面,AI没法替代人的经验。所以两者之间,第一要看场景,第二不是替换关系,而是互补关系。
主持人: 人类的某种非理性,恰恰是推理过程中的另一种优势。温老师怎么看?
温老师: 我可能跟侯老师持不同的观点。我更倾向于认为 AI 的记忆和经验在未来会是比人类更高质量的东西。除了量大、迭代快以外,还有很重要的一点——当规则和场景边界明确的情况下,AI产生的东西是客观的、理智的,不会带有人的局限性和偏见。很多时候人的记忆受经验、个人喜好影响,会引入误导。
这也是为什么现在大家都走 RLVR 这条路——之前也踩过很多坑,想靠人来构建奖励模型,大部分走不通。
但侯老师提到一个很有意思的点——世界上不是所有任务都是明确客观的,也存在需要博弈、勾心斗角、考验人性的场景,这一块AI短期内比较难突破。但长期来说也说不定。假设有一个 Agent 的记忆是无限长的,它把对手的所有过往经历也建模进去,未必它在博弈上就不如人类。
AI应该学会遗忘吗?
主持人: 我们前面聊的都是让 AI 怎么记住事情。但作为人类本身,有一个非常值得注意的特性——遗忘。人由于自身功耗的特性,会选择遗忘一些事情以便在未来应对场景时变得更高效。AI是不是也应该学会遗忘?永不遗忘是不是AI应该具备的特性?
熊飞宇: 在设计 AI 系统时,大脑的机制未必是最优参照。我们对自己大脑的理解,其实远不及对模型和神经网络的理解——大脑对我们而言更像一个黑盒,其遗忘机制究竟如何运作,学术界至今也没有定论。
从实际构建记忆系统的经验来看,让 AI 更好地遗忘,前提反而是让它更好地记住。我们在系统设计中有一个"记忆版本"的机制——将记忆的多个版本完整保留,再通过对比和逻辑处理,选择性地淘汰不重要的内容。所以和直觉相反,我们不是先定义 AI 该如何遗忘,而是先把记忆系统做扎实,遗忘才能变得精准。
主持人: 这个回答让我想起仙剑奇侠传里的经典台词——"不曾拿起,何来放下?"不曾记住,怎么谈遗忘。侯老师,您认为"被遗忘的权利"在 AI 时代还成立吗?
侯老师:我觉得是成立的,但需要重新定义。从技术上讲,在大模型时代你没法完全删除它的记忆,因为神经网络是分布式存储,数据可能分布在几十万甚至几千万参数里,目前研究没法精准删除。
但可以做另一种程度的解法——不叫删除,而是控制。我认为需要四层控制:第一,访问层控制,决定哪些人能访问AI记忆系统里的数据;第二,使用层控制,决定记忆被哪些场景使用;第三,时效性控制,让记忆在一定时间范围内可用;第四,可解释性,让人知道 AI 用我的记忆来干什么。这四层控制如果做好,被遗忘的权利依然是存在的。
主持人:温老师,从强化学习的角度来看,记忆优化和遗忘机制是冲突的吗?
温老师: 从我的角度来讲,我从来不认为这两个是冲突的。打个比方,如果把 AI 的能力看成一个阶梯,那么记住一件事和忘掉一件事就是AI往上走的左脚和右脚。记住是为了让它未来探索到更好的做法、得到更优的解决方案;遗忘则是在有了更好的方案之后,把过去不好的记忆忘掉,从而使记忆库的平均质量越来越高。所以遗忘本质上也是为了提升记忆库的平均质量,二者不可分割。
企业中层还有存在的必要吗?
主持人:从企业角度看,如果 AI 拥有了记忆和经验传承的能力,企业的中层到底是必要的,还是历史遗留问题?以前企业经验很多靠人传递——师傅带徒弟、口头传承。如果未来通过AI记忆系统就能把组织经验记下来,中层所具备的经验传递能力是不是就没那么重要了?经验可以被系统化之后,公司还需要人来教授经验吗?
延君晨:这个问题我每天都在思考。我们做的产品本质上是一个 agentic workflow,它在企业中解决的核心问题是"把隐性知识显性化"。很多企业知识存在于人的脑子里、口口相传中,大家普遍不爱写文档。早期的做法是通过梳理企业 SOP、构建知识库,把隐性经验变成显性流程,再用 AI 驱动起来规模化运行。
到了“龙虾时代”(OpenClaw),这是一个全面的范式变革。想象一下,一家 500 人的企业,每个人每天都在与 AI 协同办公,运行一年之后,日常工作是否已经被 Agent 完全学会,是不是可以把人开掉?很有可能。对企业管理者来说,如果不考虑隐私问题,他可以掌握企业中所有的信息流转。这意味着我们所有人都在被 AI"反向蒸馏"——人类的隐性知识正在被系统性地提取出来。
过去企业的护城河是"模型永远训不到我的私域知识"。但有了各种 Agent 之后,这个前提不再成立。企业首先要解决的是数据留在企业内部、不被模型训走。目前最可行的方案可能就是私有化部署模型,因此开源模型的生态繁荣是不可逆的趋势。企业可能会做分层数据治理——需要最强推理能力时用 Claude 4.6,对数据安全要求更高时用私有化模型。那企业的主权究竟在哪里?我认为就是 memory 这一层。最上面是各类 Agent 在持续蒸馏人类知识,最下面是模型本身,企业真正能掌控的可能只剩中间这一层。飞宇觉得未来这一层会长什么样?
熊飞宇: 这涉及记忆归属权的问题。OpenClaw 的出现让更多人开始关注这件事——Peter 在设计时为什么选择用"memory as a file system"这种看起来不那么高效的方式来管理记忆?因为只有这样,用户才能真正将记忆保存在本地,对自己的记忆拥有主权。
今天,无论是美国的三大巨头加上 xAI,还是国内的千问、Kimi、MiniMax,随着用户与这些模型的对话不断深入,过程中沉淀下来的智慧结晶和记忆会变得越来越珍贵。它到底属于用户自己,还是属于这些公司?
从企业视角来看,私有化部署的比例在下降,token 使用量却在飞速增长——这意味着越来越多的交互发生在云端模型上,而云端模型必然会接触到你的全部上下文。这些数据到底属于模型公司,还是属于使用它的企业?在我看来,它属于企业本身,是企业的数字资产。
这就是为什么我们一直在做独立的记忆层。第一步不是要把记忆从模型公司手中夺回来,而是先通过一个独立的基础层把记忆统一管理起来——无论底层调用的是 Kimi 还是 Claude 4.6,上层对记忆的管理方式都是一致的。做到这一步,才算实现了记忆的管控权;在此基础上,未来才能进一步延伸到真正的拥有权。
主持人: 侯老师和温老师有什么观点?
侯老师: 短期内中层肯定会很痛苦,随着组织越来越扁平,中层数量一定会急剧下降。但短期内还有存在价值——打个不恰当的比方,业务做不成功,不能让老板来背锅,也不能让员工背锅,中层总得有用处。在比较臃肿的组织中,AI 还替换不了团队间的协调和沟通。
但中层一定已经在转型的阵痛期。AI 时代对中层的能力要求会越来越高,不再只是管理和上传下达,而是怎么用 AI 提升组织效率。80% 的工作 AI 能干了,还有 20% 干不了的一定是很难的活,这时候就得中层来上。
温老师:我分享一下自己的体验。最近在课题组里,我完全靠 OpenClaw 来管理学生进度,体验非常好。以前需要开组会、同学逐一汇报、组长收集进度。现在我直接让 Agent 去检查每个学生这周写了多少代码、实现了什么功能、有多少 bug,它能生成非常详细的报告。传统的那种上传下达式的"监工"角色,似乎已经没有太大存在的必要了。
第二个是项目协作。以前比较资深的学生会主导一个项目,然后到处"抢人"——拉本科生或低年级研究生来帮忙,甚至因为抢人产生矛盾。现在我问他们要不要多派人手,他们说不用,"你给我多加点 token 额度就行"。在他们看来,自己的代码加上 Agent,比多一个人好用得多。
1% 的人做 99% 的事,社会将走向何方?
主持人:AI 带来的变化已经不仅是单个人效率的提升,而是一种社会结构和组织结构的变革。Token 可能变成决定一个人能力上限的最重要因素。AI 会不会使人形成一种新的阶级?
侯老师:从两个维度看。公司层面,阶级现象本质上回到算力——谁有更多算力,谁就处于优势位置。不是说有最多算力就一定能做出最牛的模型,但没有足够算力一定做不成。
第二层是公司维度,你的业务有多少能被 token 化决定了你能跑多快。有些公司 80%、90% 的业务都能用 token 解决,未来一定跑得越来越快;有些只有 10%、20% 能加速,那迭代速度就会变慢,两种公司的差距会越来越大。
回到人的角度,我们也发现两种人。一种工具用得特别好,一种觉得大模型"除了陪聊也帮不了什么"。核心问题是后者没有真正理解大模型能帮他干什么。在这个时代,两种人之间的能力差异可能是 10 倍到 100 倍。
在大模型之前,人与人之间没有这么大差距,但大模型之后,工具用得好和用得不好的人,效率差距可能是 100 倍以上。
主持人:如果 1% 的人就能调动 AI 做完 99% 的工作,整个社会结构会是什么形态?
熊飞宇:1% 的人能做所有事情?我觉得这也只不过是一个中间态。当 AI 更加厉害、真正实现 AGI 之后,这 1% 的人的能力在 AI 面前也不值一提。有人说修水管、理发这些还需要人,但视觉和具身模型做好之后可能也不值一提了。那时候我们要思考的是,人到底能为 AI 提供什么独特价值?人脑中我们理解不了的部分,对于未来模型的另类价值是什么?但这个问题现在是没有答案的。
我们要寻找人类与 AGI 模型之间——从思维模式到逻辑、甚至到奇思妙想乃至做梦的方式——这些本质上的不同。这可能才是最重要的。
温老师:两三年前我们做研究、写论文说"我们在向着 AGI 的目标奔赴",会被人喷说太虚。但这几年应该没什么人怀疑了,AGI 可能在一个不太远的未来会到来,至少在我们这一代人。
延君晨:在 coding 领域,AGI 已经到来了。
温老师:对,部分领域已经到来了。另一个概念是 ASI——假设有一天有一个模型,不一定是现在的架构,它的全域能力超过了人类所有专家能力的总和。那一天到来后,人到底要干嘛?
其实我们也不是在说人能为 AI 做什么,而是如果那天到来了,人能为其他人做些什么。因为AI有一个缺陷——它能创造,但不会消费。
延君晨:说到消费,你是不是想说到货币体系?既然这么宏观,就应该用最宏观的思考。马斯克之前构建了一个没有货币的闭环——发射火箭到太空铺太阳能板,产生的能量推动算力、制造机器人,形成物理世界的原子、电子、能源、算力的闭环。没有人也没有货币,这就是马斯克构想的未来。
主持人: 感谢各位老师的精彩分享,让我们再一起总结一下今天的圆桌讨论。从记忆系统如何设计,到 AI 与人的协作关系,一路聊下来,这件事已经不单单是技术问题了。AI 加记忆的结合,给社会结构、个人定位和企业组织带来的深层挑战,值得我们重新思考。当企业的专家经验可以被复制,个人的经历也可以被复制,我们每个人的定位到底在哪里?
最后留一个问题给大家思考:未来到底是人在使用 AI,还是人被自己的AI重新定义?
关于 MemOS
MemOS 为 AI 应用构建统一的记忆管理平台,让智能系统如大脑般拥有灵活、可迁移、可共享的长期记忆和即时记忆。
作为记忆张量首次提出“记忆调度”架构的 AI 记忆操作系统,我们希望通过 MemOS 全面重构模型记忆资源的生命周期管理,为智能系统提供高效且灵活的记忆管理能力。

夜雨聆风