“2小时,100美元。”
这不是高端俱乐部的账单,而是一位OpenClaw用户在真实开发场景中产生的Token费用。
同样是OpenClaw,有人每月运行成本接近于零,有人却成本高企。这种巨大的差异,很大程度上并非来自使用频率的不同,而是源于对系统架构的理解深度。而其中最隐蔽也最致命的陷阱,就是像滚雪球一样不断膨胀的历史上下文。

很多新手以为,Token消耗就是“我说的话加上AI回的话”。但真相是:你付的钱,远比你看到的多。
在一次典型的OpenClaw调用中,大模型接收到的内容远不止当前这一轮对话。它包括:
固定开销:系统提示词、可用工具列表、技能描述、人格设定文件等。这部分像“房租”,每次调用都得付。
可变开销:当前session累积的全部历史对话,包括用户消息、AI回复、工具调用记录等。这部分像“水电费”,用得越多付得越多。
随着对话进行,历史记录越来越长。一条35条消息的会话,session文件可能膨胀到近3MB。每次调用大模型时,这些历史都会被完整地提交上去——就像每次谈话都要把之前说过的所有话从头到尾复述一遍。
02 “滚雪球”是如何发生的?
OpenClaw的智能体工作模式是循环式的“思考-行动-观察”,而不是简单的一问一答。为了完成一个复杂任务,比如“帮我分析这份数据并生成报告”,OpenClaw可能需要:
先读取数据文件(一次调用)
理解数据内容(二次调用)
规划分析步骤(三次调用)
执行分析(可能多次工具调用)
生成报告(最后一次调用)
每一次调用,都会把前面所有的对话历史重新提交一次。这就好比你要写一份报告,每写一段都要把之前写的内容全部重读一遍。写到后面,光是“重读”的时间就远远超过了“写”的时间。
03 如何让雪球不再滚下去?
看清自己的消耗
OpenClaw提供了查看Token使用情况的命令。定期检查会话长度,当发现会话文件超过500KB时,就要警惕了。你可以通过对话界面查看当前会话的上下文使用量,了解每次调用的真实成本。
区分“临时任务”和“长期任务”
对于一次性任务,完成后直接用/new命令开启新会话,不要让历史无限累积。这就像做完一个项目就关掉文件夹,下次做新项目时重新打开。
对于需要长期持续的任务,要有意识地定期“存档”重要信息,然后开启新会话继续。
考虑使用Lossless-Claw
2026年3月推出的Lossless-Claw插件,通过“档案馆+目录”的方式解决了这个问题:所有历史消息完整存储在本地数据库中,提交给模型的只是精炼的摘要目录。需要细节时,AI可以主动去“档案馆”调阅。这样既控制了每次调用的成本,又保证了信息不丢失。
核心启示
在OpenClaw的世界里,你不仅是在为“思考”付费,更是在为“记住”付费。了解成本结构,让每一次调用都物有所值,而不是为已经过去的对话反复买单。
往期精彩回顾
《“养虾人”注意:OpenClaw口头指令不能代替书面指令》
本文作者:

夜雨聆风