你有没有想过一个问题:换一个大模型,到底有多难?
改一下 API 地址,调一下 prompt,换一个 endpoint——一个小时搞定。模型本身是无状态的,切掉一个,换上一个,体验几乎一样。
但如果你换的是一个用了三个月的 AI 助手呢?
光是重新教它你的写作风格、你的项目语境、你踩过的那些坑,就要花掉你几周时间。更要命的是,它之前记住的那些东西——那些你以为"只要登录就能找到"的东西——往往一起消失了。
这不叫换工具。这叫清空记忆。
而这,恰恰是应用层面最有价值的护城河。
01 · 我自己的亲身经历
我有一次手欠,不小心把 Agent 删了。
当时那个 Agent 已经用了挺长一段时间,是我花了很多热情调试出来的——很多细节当时做得很用心,比起后来,再也没有那种投入感了。
重建一个不难,装上插件、调好参数、重新配置……三下五除二就搭好了。
但用起来,完全不是一回事。
总觉得新的这个不如之前好用。不是配置不对,是感觉不对——它不认识我了,不知道我关心什么,不知道我之前踩过哪些坑。那些我以为"只要登录就能找到"的东西,全部要重新教。
熟悉的工作流消失了。那些"它本来应该知道的事",一件都要重新开始。
那一刻我才意识到两件事:
第一,记忆的价值远比人们以为的大得多。
第二,没有记忆的 Agent,根本没有任何壁垒。
因为没有记忆的 Agent,换一个模板就能复制。你花最用心的时候调教出来的东西,别人花一个小时就能重建一份几乎一样的。
唯一不可替代的,是记忆本身。

02 · 什么是转换成本
为什么记忆能成为护城河?
因为它本质上是一种转换成本(Switching Cost)——这是巴菲特的护城河理论里,最经典的四种护城河之一。
换银行要手续费。换微信要通知所有人。换一套用熟了的企业软件,要重新培训全体员工。这些都是转换成本。
而 AI Agent 的记忆,恰好就是数字世界的新型转换成本。
你的 Agent 积累了三个月的记忆:你的写作风格、你处理问题的偏好、你踩过的坑、你客户的特征。这些数据越积越多,迁走的代价就越来越大。
而且这个代价不是线性的——是加速增长的。
• 用一周,切换代价很小,几乎无感
• 用一个月,有点不舍得,但还能忍
• 用半年,你会发现已经离不开它了
因为 Agent 对你的理解是累积的。每一次交互,都在加深这种理解。这种理解不可逆,无法复制。
这就是为什么很多用户说,用某个 AI 产品超过半年之后,就算有更便宜的选择出现,也懒得换了。
不是忠诚度。是记忆的代价太高,高到换不起。
03 · 记忆不是插件
但这里有一个更隐蔽的问题,大多数人没意识到:
记忆不是独立存在的。记忆和它的管理系统(Harness)深度耦合。
很多人觉得记忆是一个独立的东西——就像数据库,接上就能用,拔掉也不影响。
但实际上根本不是这样。
对话消息怎么管理?工具调用结果太大怎么压缩?System prompt 怎么加载?跨会话记忆怎么读写?上下文压缩时保留什么、丢弃什么?
这些问题,每一个都不是 Memory 自己决定的,而是由Harness(上下文管理系统)来决定的。
"问怎么把记忆插入到 Agent Harness 上,就像问怎么把驾驶功能插到汽车上。
记忆不是插件——它就是 Harness 本身。"
— Sarah Wooders / Letta CTO
换句话说:Harness 怎么管理上下文,Agent 的记忆就是什么样的。你选错了 Harness,就选错了记忆的形态。
而一旦你用了闭源的 Harness,你的记忆就变成了别人的资产。

04 · 大厂在做什么
这就是大厂正在做的事,而且比大多数人想象的更加主动。
Anthropic 推出了 Claude Managed Agents,把所有东西全部锁在 API 后面:Harness、记忆、状态管理,全部不可见。你用的是这个产品,但你看不见它记住了什么,甚至不知道它以什么结构存储。
OpenAI 的做法更巧妙。Codex 代码是开源的,你能看到它每一行怎么写的——但它压缩上下文产生的记忆摘要,是加密的。只有 OpenAI 的系统能解读,你拿到的只是一个看不透的黑箱。
开源外壳,闭源记忆。
你以为你在用开源工具,其实你的数据飞轮在别人服务器上转。这不是故障。这是设计。
05 · 为什么执着于锁定记忆
因为光靠模型本身,锁不住用户。
模型 API 格式几乎一样,调整 prompt、换一个 endpoint,分分钟切走。模型本身是无状态的,切换成本极低。
但一旦有了记忆,一切都变了。
你想换平台,但你三个月的 Agent 记忆全在别人那里。迁过来代价太高,不迁又意味着放弃之前所有的积累。
模型竞争格局正在收敛,各家差距越来越小。大厂不需要在模型上永远领先,它只需要在你决定迁移之前,积累足够多的你的数据。
模型 API 可以一天换一个,但你 Agent 记忆一旦交出去,就再也拿不回来了。
06 · 代价与选择
说到这里,一定会有人反驳:
"用开源 Harness 自己搭,那不就要自己搞定存储、索引、检索?运维复杂度高,一般团队扛不住。"
是的,有代价。
但这里有一个关键问题你必须想清楚:你交出去的,到底是什么?
短期看,闭源产品的体验确实更无缝。人家有资源把记忆系统做得更精致。
但你在享受便利的同时,你的数据飞轮正在别人的服务器上转动。
等哪天你意识到要迁移了,代价已经高到你迁不动了。
而对于认真做产品的团队来说,恰恰相反——现在多花一点功夫建立自己的记忆系统,长期来看,这是你唯一真正拥有的资产。
对大模型公司来说,模型本身就是护城河。算力、人才、数据、算法——这些构成了基础层的竞争壁垒,别人很难追赶。
但对应用层的玩家来说,模型本身不是你的护城河。Claude 能用,GPT 也能用,API 格式几乎一样——切换成本极低,靠模型能力建立的壁垒,今天成立、明天就可能被追平。
应用层面的护城河,只有两个:数据,和记忆。
数据是你的用户行为,是你积累的真实反馈,是别人没有的东西。
而记忆,是数据之上的那一层——它让 AI 不只是工具,而是懂你的助手。用得越久,它就越了解你,这种了解不可逆,无法复制。
07 · 不可替代的细节
Claude Code 源码泄露事件里,有一个数据值得注意:
2026年3月31日,Anthropic 意外将 59.8MB 的 Claude Code 源码发布到 npm,512k 行 TypeScript,1906 个文件。几小时之内,GitHub 上出现了 8000+ 镜像仓库。
所有人都想研究它的架构——但真正有价值的,不是那些代码本身,而是它三层记忆系统的设计逻辑。
代码可以抄,可以 Fork。
但别人花了多少时间、调教了多少轮、积累了多少真实场景的反馈——这些东西,永远抄不走。
这就是记忆资产的不可替代性。
关注我,持续分享 AI 深度解读
👉 点「在看」并发给用 AI 的朋友,一起思考记忆的价值
夜雨聆风