OpenClaw从诞生到称霸,仅仅用了五个月。
2025年11月,Peter Steinberger在一个周末随便写了个WhatsApp中转工具,起名为Clawd。五个月之后,它改名叫OpenClaw,GitHub星数超过30万,大半个中国的科技公司都用它来部署AI Agent。
然后,2026年2月,一个叫Hermes Agent的项目偷偷上线了。
由Nous Research弄出来的,用Python编写的,不到两个月,就有1.3万星。
纸面上,这根本就不算是一场对决。
而越来越多的开发者开始做同一件事:把自己的实验环境从龙虾那边转移开。
那些笑着看热闹的人,笑着笑着,就笑不下去了。
OpenClaw和Hermes最大的误解,在于人们总是把它们放在同一张表格里去进行比较。
OpenClaw的底层逻辑是操作系统。它是一个常驻VPS的网关进程,负责传送请求、管理插件、协调多用户多工作区。ClawHub上有超过一万种社区技能,从日历管理到数据库查询到邮件自动化,什么都有。
它的设计理念是:连接所有东西。
Hermes的底层逻辑就是伴侣。
也就是一个专门只为你服务的AI,在使用过程中就会渐渐变得比较聪明。它有三层记忆系统:session记忆负责管理当前对话,persistent记忆负责管理你的偏好以及项目细节,skill记忆那可特别厉害——每解决一个难题,它都会自动写一份能复用的skill文档,下次碰到类似问题就直接调用。
它的设计哲学是:被你完全知道。
两种途径,并没有什么对与错之分。不过安全事件让天平开始发生变化了。
在2026年初的时候,安全研究人员在ClawHub里面发现了AMOS窃取木马。
不是几个,而是1100多个恶意skill。
ClawHub中,有20%的skill被标记成恶意的,还有13.5万个OpenClaw实例处于远程代码执行漏洞(CVE-2026-25253)之下。
之后,OpenClaw基金会加强了skill审核,可要是信任崩塌了,重新建立的成本那是特别巨大的。
这时候再回过头去看看Hermes的架构,会发现一个挺有意思的差异。
Hermes是没有skill市场的,它的skill是自己生成的。
当你让它解决一个复杂问题时,它解决完之后,就会自动编写一份skill文档并且存起来。下次碰到类似情况,它就直接调用自己编写的那份文档。随着时间过去,它的私人skill库就会越来越丰富。
更厉害的是它的dialectic user model,这个模型是基于Honcho构建的。它不是只简单记录你说了什么,而是一直在加深对你这个人的了解——你怎么工作、你喜欢什么、你倾向提出什么样的问题。
OpenClaw的用户得手动检查每一个安装的skill,而Hermes的用户只需等着它自己进化。

设想这么个场景。
用了Hermes一个月。
它记着你的代码风格,记着你调试时爱先看哪一层日志,记着你哪个项目用了什么框架。某一天你换了台机器,重新部署,它依旧是那个"老同事"。
OpenClaw好像雇了个万能外包团队,什么都能做,只是每项任务都得重新跟它交代一番。Hermes则像养了个越发懂你的学徒,刚开始慢,往后越发不用你多说话。
但这里存在一个更让人不安的问题。
当你的AI伴侣比你的同事更了解你的工作方式,当它记住的比你记得的还多,你还会信任人类同事不?
Hermes的README里有着这样一句话:「grows with you」,也就是和你一起成长。听起来还挺温暖的。
但仔细一琢磨,这里面存在着一个更根本的问题。
当Hermes自己去决定哪些经验值得记住、哪些技能值得留下、哪些问题值得优化之时,它实际上是在替你定义"什么是有价值的"。
OpenClaw的价值判断是由社区来进行的。一万好几个技能,靠着市场投票,好不好自然就有个说法。
它觉得这个技能重要,它就把它存起来。它觉得那个经验没用,它就把它忽略掉。
你当然可以手动去干涉,但大多数人都不会去干涉。仅仅是因为"它比我更懂"。
OpenClaw把判断权交给了社区,Hermes则把判断权交给了AI自身。
那AI的判断,难道就真的和你的判断一样吗?
再回到开头的那个对比。
30万星与1.3万星,五个月和一个月。
Hermes不需在OpenClaw的游戏里去挑战它,而是换了一个战场。
OpenClaw玩的是规模,Hermes玩的是深度。OpenClaw想要的是十万只手,Hermes想要的是一条能记住你的记忆。
但和所有AI进化故事一样,效率提升的背后,总会有一个被忽略的代价。
当你的Agent越来越不需要你去教导它,当它的skill库越来越不需要你参与构建,当它的判断越来越不需要你去确认之时。
夜雨聆风