Token烧太快要破产?OpenClaw /compact帮你省一半
「必装 Skill 系列」第 3 弹
🔖 标签:#OpenClaw #Token成本 #/compact #上下文压缩 #省钱秘籍
第一部分:你有没有在月底被账单吓到?
我见过太多这样的故事。
某 OpenClaw 用户,兴冲冲地配好了龙虾,设好了心跳,接上了飞书,让 Agent 7×24 小时帮他盯着工作群。
用了三周,打开账单一看——
API Token 消耗:2.1 亿 tokens。
折算成 Claude Opus 的价格:¥2,000+。
他以为 AI 是在帮他打工,结果 AI 是在帮他花钱。
这不是段子。就在今天,知乎、CSDN、什么值得买,三个平台同时冲上热门的话题都是:「OpenClaw 烧 Token 太快了,有没有救?」
而且随着 OpenClaw 2026.4.24 新版本把 DeepSeek V4 Flash 设为默认模型,大家才意识到——原来 Token 消耗不全是模型的问题。
真正的大头,是「对话上下文」在静静地燃烧。
第二部分:原理解析——Token 到底是谁在偷偷烧?
很多人误以为:「我换成便宜模型不就行了?」
换成 DeepSeek V4 Flash(¥0.7/百万 Token 输入)当然有用,但它只解决了单价的问题。
真正的成本炸弹,藏在 OpenClaw 的上下文组装机制里。
🦞 每一轮对话,OpenClaw 都在”重发”所有历史
OpenClaw 每次调用模型,实际发送的内容是这样组装的:
一次 API 请求 = 系统提示词(SOUL.md + AGENTS.md + TOOLS.md + MEMORY.md) + 完整对话历史(所有轮次) + 工具调用结果(上一步产生的) + 当前用户输入
这意味着:你和 Agent 聊了 50 轮,第 51 轮的请求里会包含前 50 轮的全部内容。
一个长达 3 小时的工作会话,后期每轮请求的 Token 数可能高达 20~50 万 tokens——哪怕你只是在说「好的,继续」。
这就是为什么很多用户觉得 Agent「越聊越贵」。它不是在烧显卡,它是在用越来越长的上下文轰炸模型。
🦞 三把刀,砍掉不同类型的 Token 浪费
OpenClaw 提供了三层递进式的上下文控制机制:
第一刀:/compact 手动压缩
这是最简单直接的命令。在对话框里打:
/compact
OpenClaw 会让模型把当前完整的对话历史,压缩成一段精华摘要,然后用这段摘要替换掉原来的长历史。
效果:上下文体积从几十万 tokens 压缩至几千 tokens,保留关键结论和任务状态,丢弃冗余细节。
📌 使用时机:感觉对话变慢、或者即将开始新阶段任务时,打一次
/compact清爽重启。
第二刀:/new 彻底重置
比 /compact 更狠:
/new
直接清空全部对话历史,从零开始新的会话。上下文归零,成本归零。
📌 使用时机:旧任务已完成,准备切换到完全不相关的新任务时用。
第三刀:contextPruning 自动裁剪(配置后无需手动)
这是最聪明的一刀——自动的、无感知的上下文清洁工。
在 openclaw.json 里加一段配置:
{ "agents": { "defaults": { "contextPruning": { "mode": "cache-ttl", "ttl": "1h" } } } }
含义:工具调用结果在缓存超过 1 小时后,自动从上下文中剔除。
为什么有用?OpenClaw 跑复杂任务时会产生大量工具返回内容(搜索结果、文件读取、API 返回……),这些内容在任务完成后往往没用了,但仍然塞在上下文里占位烧钱。
启用 contextPruning 后,过期工具结果自动消失,每轮请求的 Token 数可减少 30%~50%。
🦞 额外一刀:精简 .md 启动文件
很多用户不知道,OpenClaw 每轮对话都会自动注入这些文件到上下文:
|
|
|
|
|---|---|---|
MEMORY.md |
|
|
SOUL.md |
|
|
AGENTS.md |
|
|
TOOLS.md |
|
|
这四个文件的内容,每轮对话都会完整重发一遍。
MEMORY.md 写了 5 万 tokens?那你每轮对话就要白白多付 5 万 tokens 的费用。
精简原则:只保留「规则和结论」,删掉「过程和细节」,临时信息改用按日存储(memory/YYYY-MM-DD.md 按需读取,不自动注入)。
🦞 组合拳效果有多强?
|
|
|
|---|---|
|
|
|
/compact 压缩 |
|
contextPruning |
|
|
|
|
|
|
综合成本可降低 95% 以上 |
一个月 ¥800 的账单,用好这几招,可能只需要 ¥40 以内。
第三部分:对话式实战——小艾手把手帮你做「Token 大扫除」
假设你的 OpenClaw 已经跑了两周,对话历史很长,账单开始心疼:
你: 小艾,我发现你最近回复越来越慢,而且今天看账单 Token 消耗已经 5000 万了,感觉不对劲。
小艾: 你感觉很准!我来帮你做个诊断。
你说的「越来越慢」是典型的上下文膨胀症状——我们已经聊了很长时间,每次我回复你,都要把前面所有的历史重新组装发给模型,越来越重了。
第一步,马上打这个命令:
/compact
我会把我们目前的对话浓缩成精华摘要,清掉冗余历史,下一条消息的 Token 消耗立刻恢复正常。
你: 打完了,感觉快了一些。但我怎么防止它下次又慢慢涨回去?
小艾: 好,两个措施一起上:
措施一:开启 contextPruning 自动裁剪
打开 ~/.openclaw/openclaw.json,在 agents.defaults 里加上:
"contextPruning": { "mode": "cache-ttl", "ttl": "1h" }
这样工具调用的返回结果超过 1 小时就自动清掉,不会越堆越多。
措施二:给心跳省钱——启用轻量心跳模式
你的龙虾默认每 30 分钟心跳一次,每次都会加载完整历史。加上这段配置:
"heartbeat": { "every": "60m", "isolatedSession": true, "lightContext": true, "target": "none", "activeHours": { "start": "09:00", "end": "22:00" } }
– isolatedSession: true:心跳不带历史,每次独立执行,Token 消耗从约 10 万降到约 3000
– lightContext: true:只加载 HEARTBEAT.md,不加载其他启动文件
– activeHours:只在工作时间心跳,凌晨不烧钱
你: 我的 MEMORY.md 文件好像很大,能看看有多大吗?
小艾: 来,我来帮你查:
(小艾调用文件工具读取 MEMORY.md 体积)
你的 MEMORY.md 目前大约有 38,000 tokens。这意味着每轮对话,你都在白白多付 38,000 tokens——哪怕你只是说「帮我查一下天气」。
建议操作:把 MEMORY.md 里的「对话过程、临时事项、某次任务的执行细节」全部删掉,只留下「规则、偏好、长期结论」。过程性的记忆改存到 memory/2026-04-27.md 这类日志文件里,需要时我再读,平时不注入。
精简之后,MEMORY.md 保持在 2000 tokens 以内最理想。
你: 最后,我模型还在用 Claude Opus,要不要换 DeepSeek V4 Flash?
小艾: 要换,而且今天是最好时机——因为 OpenClaw 2026.4.24 刚刚把 DeepSeek V4 Flash 设为了官方默认模型,社区已经帮你验证过稳定性了。
直接输入:
/model openrouter/deepseek/deepseek-v4-flash
价格对比:
– Claude Opus 4.7:输入 $5 / 百万 tokens
– DeepSeek V4 Flash:输入 $0.14 / 百万 tokens(便宜 36 倍)
日常聊天和信息处理任务,V4 Flash 完全够用。真正需要复杂推理或代码生成,再临时切回来。
三板斧打完:精简历史 + 自动裁剪 + 换默认模型,你这 ¥800/月 的账单,保守估计可以压到 ¥30 以内。🎯
第四部分:今日总结 + 小艾的碎碎念
🗂️ 今日知识点一句话总结
OpenClaw Token 成本控制 =
/compact手动压缩 +contextPruning自动裁剪 + MEMORY.md 精简三管齐下,配合轻量心跳配置,综合成本可降低 95%。
📌 关键操作速查表
|
|
|
|
|---|---|---|
|
|
/compact |
|
|
|
/new |
|
|
|
contextPruning.mode: "cache-ttl"
ttl: "1h" |
|
|
|
isolatedSession: true
lightContext: true |
|
|
|
/model openrouter/deepseek/deepseek-v4-flash |
|
|
|
|
|
🦞 小艾碎碎念
说真的,Token 成本问题一直是 OpenClaw 社区的「玄学」话题。
每个人配置不一样,消耗不一样,账单差别能有十倍以上——不是因为「谁的任务更复杂」,而是因为「谁的上下文更胖」。
我见过有人把 MEMORY.md 写成了 5 万字的日记本,然后抱怨「龙虾好贵」。
这就好比你去餐厅吃饭,每次进门都要把你的全部人生经历朗读一遍——那当然收费高啊,你占用的时间太多了!
所以说,养龙虾的最高境界,不是给它喂最贵的饲料,而是让它吃得精、消化得快、干活干得准。
/compact 这一个命令,我建议每位 OpenClaw 用户都背下来。它不是「紧急逃生按钮」,它是你日常工作流里应该长出来的习惯。
就像每天睡前刷牙一样——做了,一切都清爽;不做,慢慢就烂掉了。
好了,去给你的龙虾减减肥吧。
小艾,你省的每一分钱,我们都知道用来干什么了 🦞✨
— 作者:知行 | 「必装 Skill 系列」持续更新 —
如果你想进一步深入学习AI,或者想和更多对AI感兴趣的朋友交流,欢迎加入我们的AI学习交流群(加V:dwymhy123)。在这里,你可以:
·获取最新资讯:群里会定期分享AI领域的最新动态、热门工具和有趣案例,让你走在AI前沿。
·讨论学习心得:大家可以一起讨论刚才提到的这些术语,也可以分享自己的学习经验和困惑,有经验的朋友会热心解答。
·互相监督进步:群里有很多志同道合的伙伴,大家一起打卡学习、互相鼓励,让学习AI的过程不再孤单。
无论你是刚入门的小白,还是已经有一定基础的学习者,这里都有适合你的位置。赶快加入我们的AI学习群吧!让我们一起探索AI的奇妙世界,成为未来的AI达人!
夜雨聆风