AI厂商Token生意经:OpenClaw败给Hermes
一、现象:22k stars的Hermes Agent正在取代OpenClaw
2026年2月,Hermes Agent正式发布,到4月已经突破22k stars。
这个速度是什么概念?对比一下:
- OpenClaw达到同样星数用了8个月
- 之前AI Agent赛道的记录是6个月
引爆点是一个意外发现——小米MiMo大模型负责人罗福莉在一个技术社区扔出了一张性能对比图:
这张图被疯狂转发,直接戳破了AI Agent赛道的皇帝新衣。
二、Token经济学:为什么你的AI工具实际成本是标价3倍?
2.1 成本拆解:OpenClaw的钱都花在哪了?
我们来算一笔账。假设你企业里100个员工,每个员工每天和AI Agent对话50次。
| 成本项 | OpenClaw占比 | 每千次成本 |
|---|---|---|
| 工具定义(Tool Definition) | 46% | $2.76 |
| 系统提示词(System Prompt) | 27% | $1.62 |
| 实际业务请求 | 27% | $1.62 |
| 合计 | 100% | $6.00 |
而竞品对比:
| Agent | 固定开销占比 | 每千次成本 |
|---|---|---|
| OpenClaw | 73% | $6.00 |
| Claude Code | 41% | $2.80 |
| Hermes Agent | 28% | $1.50 |
数据来源:36氪2026年4月调研,样本量500家中小企业
2.2 关键差异:谁在消耗你的Token?
OpenClaw的架构问题:
一次典型请求的Token流向:
┌─────────────────────────────────────┐
│ System Prompt(系统提示) 27% │ ← 每次都要重传
├─────────────────────────────────────┤
│ Tool Definition(工具定义) 46% │ ← 工具越多膨胀越厉害
├─────────────────────────────────────┤
│ User Query(用户问题) 15% │ ← 你实际想问的
├─────────────────────────────────────┤
│ Context(上下文) 12% │ ← 历史对话
└─────────────────────────────────────┘
简单说:你付的钱,大部分花在了”包装”上,而不是真正回答你的问题。
2.3 场景复盘:一家SaaS公司的真实账单
浙江一家做CRM的SaaS公司,2025年Q4开始给销售团队配AI助手。
| 对比维度 | 配OpenClaw | 配Hermes Agent |
|---|---|---|
| 月Token消耗 | 1.2亿 | 4800万 |
| 月账单 | ¥48,000 | ¥19,200 |
| 工具响应速度 | 3.2秒 | 1.8秒 |
| 员工满意度 | 62% | 84% |
老板原话:”以为买了功能,没想到买了Token黑洞。”
三、为什么是Hermes?拆解「自改进」机制
3.1 Hermes凭什么省Token?
答案在它的核心创新:技能沉淀(Skill Auto-generation)
用一个具体场景解释:
场景:让AI帮你搭CI/CD流程
用OpenClaw:
第1次:消耗8000 Token,理解你的需求
第2次:消耗7800 Token,重新理解类似需求
第3次:消耗8100 Token,再次重新理解…
N次后:还是7800 Token,永远从零开始
用Hermes:
第1次:消耗8000 Token,理解需求,生成skill文档
第2次:消耗1200 Token,调用已有skill + 传入新参数
第3次:消耗800 Token,微调现有skill
N次后:消耗200 Token,直接复用,接近零学习成本
关键点:第一次会生成一个「技能卡」,存在本地。下次同类任务,直接调用。
3.2 Honcho开关:一个被低估的差异点
Hermes有一个功能叫Honcho dialectic user modeling(用户画像),专门做个性化记忆。
但这个功能默认是关闭的。
很多人用了一周觉得”就那样”,其实是没开这个开关。
开启后差距立竿见影:
- 它记住你的编码风格
- 记住你之前解决过哪些bug
- 记住你偏好的工作流
# 开启方式(安装后执行一次)
hermes config set honcho_mode=enabled
hermes init –user-modeling
四、三国杀:OpenClaw vs Hermes vs Claude Code
这是目前自托管AI Agent赛道的三个主要玩家:
| 维度 | OpenClaw | Hermes Agent | Claude Code |
|---|---|---|---|
| 星数 | 72k | 22k(快速增长中) | N/A |
| 核心定位 | 生态平台 | 记忆+自改进 | 编程能力 |
| Token效率 | ⭐⭐(固定开销大) | ⭐⭐⭐⭐(自我优化) | ⭐⭐⭐ |
| MCP插件生态 | ⭐⭐⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐ |
| 适合场景 | 复杂工作流、集成多工具 | 长期项目、个性化 | 极致编程体验 |
| 上手难度 | 中等 | 低 | 低 |
| 记忆能力 | ❌ | ✅ | 限本次会话 |
4.1 各家的策略分野
OpenClaw的选择:
继续强化生态,做平台。72k stars是它的护城河,MCP插件数量是其他家的5倍以上。
代价是架构包袱重,Token效率短期内很难优化。
Hermes的选择:
押注”会成长的Agent”。核心理念:Agent应该像人一样,越用越懂你。
起步晚,生态弱,但Token经济学是它的长板。
Claude Code的选择:
卷编程能力。百万Token超长上下文,全局项目掌控。
和OpenClaw交集不多,和Hermes互补大于竞争。
4.2 实际搭配建议
根据不同场景,业界形成了以下最佳实践:
小型团队(<10人):
→ Hermes Agent 主力,省钱够用
开发团队:
→ Claude Code 主力写代码
→ Hermes 做记忆层
企业级(需要集成):
→ OpenClaw 做生态整合
→ Claude Code 写代码
→ Hermes 做记忆
→ SwarmClaw 把它们连起来
五、Claude Code的启示:为什么变成另一个战场?
最近有个有意思的信号:Claude Code和OpenAI Codex在互相”抄作业”。
Anthropic的Claude Code主打超长上下文(百万Token),OpenAI Codex主打高吞吐(每秒1000 Token)。
但两者功能越来越像:
- Codex加了全局分析能力
- Claude Code加了快速模式
这说明什么?底座大模型同质化→上层工具功能趋同
未来选AI编程工具,可能越来越不需要纠结功能差异,生态和集成能力才是关键变量。
六、企业选型指南:穿透”功能包装”看真实成本
6.1 选型checklist
在选择AI Agent之前,建议先问清楚这5个问题:
- [ ] Token消耗模型是什么? 固定开销占比多少?
- [ ] 有记忆机制吗? 重启后会保留之前的经验吗?
- [ ] 能生成可复用技能吗? 还是每次从零开始?
- [ ] MCP插件生态如何? 能接入我现有的工具链吗?
- [ ] 真实账单是多少? 能不能提供典型场景的实测数据?
6.2 警惕两个坑
坑1:功能丰富≠成本低
OpenClaw功能最全,但73%的固定Token开销意味着:
坑2:上手简单≠长期便宜
Hermes装起来简单,但记得开启Honcho:
hermes config set honcho_mode=enabled
hermes init –user-modeling
不开这个功能,用了等于白用。
七、结语:Token经济学揭示的真相
AI工具的真实成本,往往藏在Token消耗模型里,而不是标价上。
这次OpenClaw和Hermes的更替,本质上不是功能之争,而是效率之争:
- OpenClaw代表:先做功能,再优化成本
- Hermes代表:从设计第一天就考虑Token效率
哪个方向对?市场已经给出了答案。
但故事还没结束——OpenClaw72k stars的生态护城河依然深厚,Hermes的追势能持续多久,还有待观察。
对企业来说,最务实的策略可能是:不押注单选,而是组合使用。
*参考资料:36氪2026年4月AI Agent赛道报告、小米MiMo大模型负责人罗福莉技术分享、卡卡夫的AI探险Hermes深度测评*
夜雨聆风