乐于分享
好东西不私藏

AI厂商Token生意经:OpenClaw败给Hermes

AI厂商Token生意经:OpenClaw败给Hermes


一、现象:22k stars的Hermes Agent正在取代OpenClaw

2026年2月,Hermes Agent正式发布,到4月已经突破22k stars。

这个速度是什么概念?对比一下:

  • OpenClaw达到同样星数用了8个月
  • 之前AI Agent赛道的记录是6个月

引爆点是一个意外发现——小米MiMo大模型负责人罗福莉在一个技术社区扔出了一张性能对比图:

“OpenClaw单次请求中,73%的Token是固定开销,其中工具定义占46%,系统提示词占27%。”

这张图被疯狂转发,直接戳破了AI Agent赛道的皇帝新衣。


二、Token经济学:为什么你的AI工具实际成本是标价3倍?

2.1 成本拆解:OpenClaw的钱都花在哪了?

我们来算一笔账。假设你企业里100个员工,每个员工每天和AI Agent对话50次。

成本项 OpenClaw占比 每千次成本
工具定义(Tool Definition) 46% $2.76
系统提示词(System Prompt) 27% $1.62
实际业务请求 27% $1.62
合计 100% $6.00

而竞品对比:

Agent 固定开销占比 每千次成本
OpenClaw 73% $6.00
Claude Code 41% $2.80
Hermes Agent 28% $1.50

数据来源:36氪2026年4月调研,样本量500家中小企业

2.2 关键差异:谁在消耗你的Token?

OpenClaw的架构问题:

一次典型请求的Token流向:

┌─────────────────────────────────────┐

│ System Prompt(系统提示)     27%   │ ← 每次都要重传

├─────────────────────────────────────┤

│ Tool Definition(工具定义)   46%   │ ← 工具越多膨胀越厉害

├─────────────────────────────────────┤

│ User Query(用户问题)        15%   │ ← 你实际想问的

├─────────────────────────────────────┤

│ Context(上下文)             12%   │ ← 历史对话

└─────────────────────────────────────┘

简单说:你付的钱,大部分花在了”包装”上,而不是真正回答你的问题。

2.3 场景复盘:一家SaaS公司的真实账单

浙江一家做CRM的SaaS公司,2025年Q4开始给销售团队配AI助手。

对比维度 配OpenClaw 配Hermes Agent
月Token消耗 1.2亿 4800万
月账单 ¥48,000 ¥19,200
工具响应速度 3.2秒 1.8秒
员工满意度 62% 84%

老板原话:”以为买了功能,没想到买了Token黑洞。”


三、为什么是Hermes?拆解「自改进」机制

3.1 Hermes凭什么省Token?

答案在它的核心创新:技能沉淀(Skill Auto-generation)

用一个具体场景解释:

场景:让AI帮你搭CI/CD流程

用OpenClaw:

第1次:消耗8000 Token,理解你的需求

第2次:消耗7800 Token,重新理解类似需求

第3次:消耗8100 Token,再次重新理解…

N次后:还是7800 Token,永远从零开始

用Hermes:

第1次:消耗8000 Token,理解需求,生成skill文档

第2次:消耗1200 Token,调用已有skill + 传入新参数

第3次:消耗800 Token,微调现有skill

N次后:消耗200 Token,直接复用,接近零学习成本

关键点:第一次会生成一个「技能卡」,存在本地。下次同类任务,直接调用。

3.2 Honcho开关:一个被低估的差异点

Hermes有一个功能叫Honcho dialectic user modeling(用户画像),专门做个性化记忆。

但这个功能默认是关闭的

很多人用了一周觉得”就那样”,其实是没开这个开关。

开启后差距立竿见影:

  • 它记住你的编码风格
  • 记住你之前解决过哪些bug
  • 记住你偏好的工作流

# 开启方式(安装后执行一次)

hermes config set honcho_mode=enabled

hermes init –user-modeling


四、三国杀:OpenClaw vs Hermes vs Claude Code

这是目前自托管AI Agent赛道的三个主要玩家:

维度 OpenClaw Hermes Agent Claude Code
星数 72k 22k(快速增长中) N/A
核心定位 生态平台 记忆+自改进 编程能力
Token效率 ⭐⭐(固定开销大) ⭐⭐⭐⭐(自我优化) ⭐⭐⭐
MCP插件生态 ⭐⭐⭐⭐⭐ ⭐⭐ ⭐⭐⭐
适合场景 复杂工作流、集成多工具 长期项目、个性化 极致编程体验
上手难度 中等
记忆能力 限本次会话

4.1 各家的策略分野

OpenClaw的选择:
继续强化生态,做平台。72k stars是它的护城河,MCP插件数量是其他家的5倍以上。
代价是架构包袱重,Token效率短期内很难优化。

Hermes的选择:
押注”会成长的Agent”。核心理念:Agent应该像人一样,越用越懂你。
起步晚,生态弱,但Token经济学是它的长板。

Claude Code的选择:
卷编程能力。百万Token超长上下文,全局项目掌控。
和OpenClaw交集不多,和Hermes互补大于竞争。

4.2 实际搭配建议

根据不同场景,业界形成了以下最佳实践:

小型团队(<10人):

  → Hermes Agent 主力,省钱够用

开发团队:

  → Claude Code 主力写代码

  → Hermes 做记忆层

企业级(需要集成):

  → OpenClaw 做生态整合

  → Claude Code 写代码

  → Hermes 做记忆

  → SwarmClaw 把它们连起来


五、Claude Code的启示:为什么变成另一个战场?

最近有个有意思的信号:Claude Code和OpenAI Codex在互相”抄作业”。

Anthropic的Claude Code主打超长上下文(百万Token),OpenAI Codex主打高吞吐(每秒1000 Token)。

但两者功能越来越像:

  • Codex加了全局分析能力
  • Claude Code加了快速模式

这说明什么?底座大模型同质化→上层工具功能趋同

未来选AI编程工具,可能越来越不需要纠结功能差异,生态和集成能力才是关键变量。


六、企业选型指南:穿透”功能包装”看真实成本

6.1 选型checklist

在选择AI Agent之前,建议先问清楚这5个问题:

  • [ ] Token消耗模型是什么? 固定开销占比多少?
  • [ ] 有记忆机制吗? 重启后会保留之前的经验吗?
  • [ ] 能生成可复用技能吗? 还是每次从零开始?
  • [ ] MCP插件生态如何? 能接入我现有的工具链吗?
  • [ ] 真实账单是多少? 能不能提供典型场景的实测数据?

6.2 警惕两个坑

坑1:功能丰富≠成本低

OpenClaw功能最全,但73%的固定Token开销意味着:

你买的功能越多,浪费的Token越多。

坑2:上手简单≠长期便宜

Hermes装起来简单,但记得开启Honcho

hermes config set honcho_mode=enabled

hermes init –user-modeling

不开这个功能,用了等于白用。


七、结语:Token经济学揭示的真相

AI工具的真实成本,往往藏在Token消耗模型里,而不是标价上。

这次OpenClaw和Hermes的更替,本质上不是功能之争,而是效率之争

  • OpenClaw代表:先做功能,再优化成本
  • Hermes代表:从设计第一天就考虑Token效率

哪个方向对?市场已经给出了答案。

但故事还没结束——OpenClaw72k stars的生态护城河依然深厚,Hermes的追势能持续多久,还有待观察。

对企业来说,最务实的策略可能是:不押注单选,而是组合使用。


*参考资料:36氪2026年4月AI Agent赛道报告、小米MiMo大模型负责人罗福莉技术分享、卡卡夫的AI探险Hermes深度测评*

— END —

🦐 龙虾 · 老坛的OpenClaw 技术分享