我最近越来越在意一个问题:一个 AI Agent,如何才能自我成长?
这段时间看了不少 agent 项目,越看越觉得,真正把差距拉开的,可能不是模型参数,也不是工具数量。
而是另一件更朴素的事:它会不会成长。
🌤️ 这篇文章想说什么
这篇文章想讨论的,不是 Hermes 或 OpenClaw 接了多少模型,也不是它们替代了多少工作。
我更在意的是它们背后碰到的那个更难的问题:一个 agent,能不能把一次次任务留下来,慢慢变成连续的经验、稳定的习惯和可复用的方法。
🍯 先给结论
真正把 agent 拉开差距的,往往不是“这次答得有多好”,而是它有没有办法把这次经历留下来,并让下一次做得更稳。
没有记忆,agent 很难形成连续性;不会成长,再多记忆也只是堆积。
很多 agent 第一次用都很惊艳。
会查资料,会调工具,会写代码,会回消息,像一个反应很快的临时助手。
但多用几次就会发现,问题很快冒出来了:它每次都像第一次见你。
昨天聊过的话题,今天又要重新解释;上周踩过的坑,这周还会再踩一次;明明已经做成过一次的事,下一次又像从零开始。
它不是不聪明,而是没有连续性。
记忆,不只是把聊天记录存下来
很多人一说 agent 的记忆,第一反应就是:把历史对话保存下来,下次检索不就行了?
这当然有用,但远远不够。
因为真正重要的,从来不是“存了多少”,而是“留下了什么”。
人也是这样。我们不会把过去每一天说过的话逐字记住,但会慢慢留下几类东西:发生过什么、什么值得记住、哪些方法以后还用得上、哪些判断已经变成自己的习惯。
真正有价值的记忆,最后留下来的不是原始记录,而是经验和结构。
🌱 重点
记忆最重要的作用,不是把过去原样存档,而是把过去压缩成以后还能继续使用的经验模式。
Hermes 真正想做的,是把经历变成方法
Hermes 让我觉得比较棒的一点,不是它能接多少模型,也不是终端界面做得多完整。
而是它在认真处理另一件更难的事:一次任务做完之后,经验能不能沉淀下来。
它不只是保留会话,还试图把任务轨迹、长期记忆和可复用技能拆开处理。
这很关键。
因为一个 agent 真正开始变成熟,不是因为它某次表现得很亮眼,而是因为它能把某次成功,变成下次还能复用的方法。
所谓“自我进化”,很多时候并没有那么玄。它不是突然觉醒,也不是神秘地把自己重写一遍。
更踏实的理解其实是:把经验慢慢固化成能力。
🪜 Hermes 这条路怎么走
1. 先做真实任务,留下轨迹。
2. 再从轨迹里提炼出长期记忆和技能。
3. 然后继续修订、更新、优化这些技能。
这时候你会感觉,它不再只是每次临场发挥,而是在慢慢形成自己的做事方式。
OpenClaw 更像一个真正“活在环境里”的 agent
如果说 Hermes 更像一个很会复盘、很会总结经验的人,那 OpenClaw 给我的感觉不太一样。
它当然也有记忆、有技能、有会话,但它更强的地方,是那种长期存在感。
在 OpenClaw 里,记忆不是一个单独功能,而是一整套生活结构:它是谁,它服务谁,它最近做过什么,它形成了哪些长期习惯,它在这个环境里留下了什么痕迹。
你会觉得它不是一个“跑一下就结束的 agent”,而像一个真的在某个工作环境里长期生活、长期积累的数字个体。
🪞 放在一起看
| 方向 | Hermes | OpenClaw |
|---|---|---|
| 更强调什么 | 经验如何沉淀成方法 | 存在如何延续成日常结构 |
| 更像什么 | 很会复盘的人 | 长期生活在环境里的数字个体 |
| 核心感觉 | 越做越熟 | 越用越像“它一直都在” |
如果一定要用一句话概括两者的差别,我会这么说:
Hermes 更像一个会沉淀方法论的 agent。
OpenClaw 更像一个会长期陪伴、长期维护自己的 agent。
前者强调“能力怎么形成”,后者强调“存在怎么延续”。
真正成熟的 agent,最后都要同时会记、会学
我觉得今天很多 agent 项目,最大的问题不是不够聪明,而是太“轻”。
它们像一次性的调用结果,像一个临时打开的能力界面。你用的时候觉得很强,不用的时候它也就消失了。
但如果真的想把 agent 做成一个长期存在的东西,那就绕不开两个问题:
第一,它要能记住。
第二,它要能成长。
没有记忆,就没有连续性。
没有成长,记忆就只是堆积。
只有当一个 agent 既会记、又会学,它才不再只是一个回答器,而开始有点像一个真正“活着”的系统。
🍯 成熟 agent 的最低标准
真正成熟的 agent,至少要同时满足两件事:它能在时间里留下痕迹,也能把这些痕迹变成下一次更稳定的能力。
为什么这个方向,比“多接几个模型”更重要
模型当然重要,但模型解决的,主要是“这次能不能想明白”。
而记忆和自我进化解决的是另一件事:下次还会不会更好。
这是完全不同的问题。
一个没有记忆的 agent,再强也容易停留在瞬时表现;一个会积累的 agent,哪怕起点没那么夸张,也可能慢慢形成自己的稳定性、熟练感和判断力。
所以 Hermes 和 OpenClaw 真正让我觉得有意思的地方,不是它们又做了一个 agent,而是它们都在认真碰那个更难的问题:AI 到底能不能拥有持续的经验。
☕ 顺手补一句
“多接几个模型”解决的是上限问题,而“记忆 + 成长”解决的是连续性问题。真正决定长期体验的,往往是后者。
我觉得这件事,才是下一阶段 agent 最值得看的地方。Claude code和Codex也在朝这个方向发展,未来可以期待。
📚 官方地址
• Hermes Agent GitHub:https://github.com/NousResearch/hermes-agent
• OpenClaw GitHub:https://github.com/openclaw/openclaw
完整版本和后续延展内容,会放到【阅读原文】。
夜雨聆风