用了两个月 AI,我发现一件有点微妙的事:它认识我,但这件事是我一手维护的。
MEMORY.md 是我写的,USER.md 是我填的,每一条"记住这个偏好"都是我主动告诉它的。
它不会自己观察到"这个人连续三次把 Python 代码改成了 Go,下次直接用 Go"——除非我明确说"记下来",否则这个规律就消失了。
这不是产品缺陷,这是一种设计选择。
但当 Hermes Agent 火出圈,GitHub 迅速涨到 61k Stars,它给了一个完全不同的答案——让 AI 自己来做这件事。
它的解法和我在“龙虾”里摸索的路子,走了两个完全不同的方向。
两种哲学,两种选择
Hermes 的记忆机制是自动驾驶型的。执行每个任务时,自动把"做了什么、遇到了什么、怎么解决的"结构化写下来,任务结束后自动提炼成 Skill 文件,类似任务还会合并更新。
它还有一套叫 Honcho 的用户建模系统,用黑格尔辩证法框架(正题-反题-合题)持续更新对你的理解——今天的行为和上个月矛盾,它不会覆盖,而是融合,得出更复杂的画像。
召回率极高,不漏经验,不需要用户操心。
代价是:没有"值不值得记"的过滤层。你今天心情不好处理了一个糟糕的情况,它会认真提炼成 Skill。你某次赶时间走了个捷径,它会当最佳实践存下来。时间一长,Skill 库里混入大量低质量经验,检索噪声越来越大。方向是 AI 自己猜的,它并不知道什么值得记、什么只是偶发意外。
我自己在“龙虾”里搭了一套三层记忆机制:
L1(会话记忆):当次对话上下文
L2(日志记忆):结构化操作日志,留档备查
L3(长期记忆):真正值得沉淀的经验,晋升门槛是"近期被用过 2-3 次,且能一两句话说清下次遇到类似场景该怎么做"
超过 30 天没用过的,标记"待归档",不再主动调用。还设了定期心跳巡逻,让 AI 自己扫日志,主动发现值得沉淀的内容。
精准率高,每一条进入 L3 的记忆都是经过筛选的,是我真正需要的方向。
代价也清楚:依赖触发。我忙的时候忘了,那次经验就丢了。
等一下——“龙虾”也可以自动跑
有人看到这里可能会说:Hermes 是全自动的,OpenClaw 这套太费人了,长期坚持不下去。
这个担心是对的,但结论是错的。
“龙虾”本身支持 cron 和心跳机制。我现在的方案是这样的:用户(我)负责设计框架——定义三层记忆的边界、制定晋升规则(什么情况下从 L2 升入 L3)、制定退出规则(超过多少天未用则归档)。规则一旦设好,AI 可以通过定期心跳或 cron 任务自动巡逻执行:扫描日志、识别候选记忆、按规则判断是否晋升、自动写入 L3。
不需要我每次手动触发。
这才是我认为真正先进的架构:用户设计了成长的规则,AI 自动按规则跑。
不是 AI 自说自话地猜什么值得记,也不是人全程盯着 AI 成长,而是人把判断标准编码进系统,AI 按图索骥地执行。
这样,Hermes 的自动进化优点和“龙虾”的精准控制优点,可以同时得到。
我折腾这套东西的真实经历
说实话,第一次看到 Hermes 介绍时,有一瞬间的焦虑——"上线才两个月,61k Stars,我是不是走错路了?"
但冷静下来:我和 Hermes 在解同一道题,只是选了不同的解法。
Hermes 有自动触发器,但没有稳定框架——每次 Skill 的结构和质量取决于 AI 当时的状态。我有清晰的框架设计,触发器也可以自动化,区别在于:Hermes 的触发器决定"记什么",我的触发器只负责执行,"记什么"由我事先定好的规则说了算。
一句话总结两者的本质差距:Hermes 是"AI 在自己定义什么值得成长",我的方案是"人定义了成长的规则,AI 自动执行"。前者更省心,后者更可控。
我做过一个印象深的对比。处理了一个复杂的运营问题,涉及多系统联动,花了两小时。处理完我主动告诉 AI:把这次操作路径沉淀成 Skill。AI 提炼出来的内容精准命中核心——不是所有步骤,而是关键判断节点。三周后遇到类似问题,直接调用,十分钟搞定。
换成 Hermes 的方式,它也会自动提炼。但那次操作里有一个步骤是特殊情况临时绕的路,Hermes 大概率会把那个绕路也提炼进去。下次遇到类似场景,它可能推荐我走那条本不该走的路。
谁来定义什么值得记,这件事很重要。
真正的问题不是工具选择
很多人对 AI 记忆这件事的焦虑,来自一个混淆:把"记忆的完整性"等同于"记忆的有效性"。
记得多,不等于记得对。记得快,不等于记得准。
Hermes 的路线,本质上是把"什么值得记"的判断权交给了 AI。大多数时候它猜得不错,但它终究是在猜。
“龙虾”的路线,把判断权留给了用户——不是靠人工一条条审,而是靠用户事先设计的规则体系。规则是你的,执行是 AI 的。
这不是哪个更好的问题,这是你愿意花多少精力在"设计规则"上的问题。
如果你用 AI 做的事情高度标准化,边界清晰,让它自动积累没什么问题。但如果是高度个性化的判断型工作,价值标准复杂,让 AI 自己定义什么值得记,风险会高很多。
带走一个框架,不用焦虑
用任何 AI Agent 工具之前,先问自己三个问题:
第一,谁来决定什么值得记? 是你的规则,还是 AI 自己猜?
第二,记错了怎么办? 有没有退出机制?坏经验进入记忆库之后,能不能被清除?
第三,你愿意在"设计规则"上花多少时间? 规则设计得越好,系统越省心;规则设计得草率,就算全自动也是在积累噪声。
把这三个问题想清楚,不管用什么工具,都不会迷失。
Hermes 的 61k Stars,说明很多人在这个方向上需要一个答案。但"流行"不等于"适合你"。理解了背后的本质逻辑,你对任何工具的选择都会更有底气。
记忆,是 AI 和你之间关系的核心。谁来定义价值,谁就在驾驶这段关系的方向。这不是一道技术题,这是一道你自己的题。
Hermes Agent github地址
https://github.com/NousResearch/hermes-agent.git
夜雨聆风