OpenClaw 账单优化指南:5 招帮你省下 80% 成本
上周一位朋友的"血泪史"让我印象深刻——这位仁兄用 OpenClaw 搭建了个 AI 助手,结果一个月账单飙到 $300 多。
他对着我哀嚎:"这玩意儿是不是有毒?"
我反手给他开了个诊断,发现并不是 OpenClaw 有问题,而是他的使用姿势严重有问题。
他踩了 5 个坑,每个都在疯狂烧钱:该开缓存的没开、Skills 列表塞了 40 个、TOOLS.md 写了 5 万字……
今天就把这套"开源节流"的方案分享给你。
为什么账单会失控?真相比你想象的更惊人
很多人以为 AI 对话就是"发消息→收答案"。
但现实是:你问的是一句话,AI 接收的却是整本《百科全书》。
天气查询:7 个字 → 2 万个 Token
我朋友随便问了句:"今天天气怎么样?"
AI 收到的内容是:
系统提示:9,600 Token Skills 列表:4,000 Token TOOLS.md:5,000 Token 对话历史:5,000 Token
小问一句,实际消耗了 2 万个 Token,真正在回答的只有 10 个。
按照 Claude Sonnet 4 的计价标准,单次对话 105 就这么出去了。
写代码:1,000 个 Token → 5 万个
让他头疼的是写代码任务。
AI 先读了 3份 文件,每份 1 万字符,然后写代码、调试、反复修改……最后生成的代码效果还不尽如人意。
一次任务消耗 5 万个 Token,90。
写文章:3,000 个 Token → 8 万个
最夸张的是让他写公众号文章。
AI 先抓取了 3 万 Token 的资料,再生成大纲、撰写初稿、反复润色……最终输出 1 万字,输入却长达 7 万。
单次支出 72。
三大项叠加,账单轻松突破 $300 大关。
第一招:启用缓存,省下 90% 的重复开销
这是效果最明显的优化项——省 $150/月
什么是 Prompt Caching?
简单来说,就是把不变的内容"寄存"起来,下次直接使用。
比如:
系统提示语 Tools 描述 Skills 列表
这些内容每次对话都一模一样,为什么每次都重新传输?
工作原理
Anthropic 的缓存机制采用"空间换时间"的设计:
首次写入:按正常价格 +25% 缓存费 后续复用:只收 10% 的价格
以 1 万 Token 的系统提示为例:
如何配置
打开 ~/.openclaw/openclaw.json,添加:
{"agents":{"defaults":{"models":{"anthropic/claude-sonnet-4":{"params":{"cacheRetention":"long"}}}}}}注意: 选择 long 类型,缓存有效期 1 小时。如果你超过 1 小时没聊天,缓存会自动失效,系统会重新写入。
配合 Heartbeat 使用
为了保持缓存持续可用,建议开启"心跳"功能:
{"agents":{"defaults":{"heartbeat":{"every":"55m"}}}}这样每 55 分钟系统会自动触发一次心跳,让缓存始终保持活跃状态。
我朋友按这个配置后,单次对话成本从 0.007,直呼:"这招太狠了!"
第二招:清理冗余信息,Skills 和 TOOLS.md 也能精简
虽然启用了缓存,但还有 10% 的开销在烧钱——原因:无用信息涌入上下文
Skills 列表:从 40 个减少到 5 个
我朋友的 Skills 目录里躺着 40 个插件,但真正用到的只有 5 个:
sherper:网页搜索必备github:代码管理常用summarize:内容摘要刚需weather:天气查询wechat-article:公众号写作
清理方法:
# 查看已安装的 Skillsclawhub list# 卸载不需要的clawhub uninstall skill-name清理后,Skills 占用的 Token 从 4,000 降到 500,每月省 $55。
TOOLS.md:从 5 万字符压缩到 500 字符
朋友的 TOOLS.md 如同一本"工具使用手册",记录了所有 SSH 配置、摄像头信息、语音设置等详细内容。
但这些信息绝大部分时间都用不上,只是在默默烧钱。
优化方案:
保留核心信息,详细内容移到单独文档:
# TOOLS.md## SSH- home-server → 192.168.1.100## TTS- 默认声音:Nova## 摄像头- living-room → 客厅- front-door → 入口详细配置见 `docs/tools-full.md`把详细的配置文件移到 docs/tools-full.md,需要时再通过 read 命令读取。
压缩后,TOOLS.md 从 5,000 Token 降到了 50 Token。
第三招:压缩对话历史,摆脱 200 轮的负担
每月省 $15
OpenClaw 默认保留最近 200 轮对话,这会导致每次请求都要携带 5,000 Token 的历史记录。
三种压缩方式
/compact | ||
contextPruning | ||
/new 或 /reset |
自动压缩配置:
{"agents":{"defaults":{"contextPruning":{"enabled":true,"maxTurns":50}}}}配置后,系统会自动保留最近 50 轮对话,超出部分会被压缩。
第四招:合理选择模型,别_IB_ Opus
每月省 $45
不是所有任务都需要顶级模型。
模型成本对比
| Haiku | |||
| Sonnet | |||
| Opus |
实用建议:
天气查询、日常闲聊 → Haiku 写代码、写文章 → Sonnet 策略规划、合同审查 → Opus
第五招:定期清理工作区,保持环境整洁
每月省 $20
OpenClaw 会把工作区文件(MEMORY.md、TOOLS.md、AGENTS.md)加载到上下文中。
朋友的工作区文件总大小达到了 8,000 Token,每次对话都要携带这部分"额外 baggage"。
清理策略
删除过时内容(超过 6 个月未更新) 移动到归档文件夹 将长文档压缩成摘要
每月执行一次,工作区文件从 8,000 Token 降到 2,000 Token。
完整优化方案:账单从 60
经过这 5 项优化,朋友的月账单从 60,节省了 80%。
极限优化方案
有用户做到了 $10/月,方法是:
所有简单任务用 Haiku 代码任务交给 Ollama + DeepSeek Coder 只在关键任务时才使用 Sonnet
但代价是:Haiku 编码错误率从 5% 升到 20%,Ollama 生成 1,000 Token 需要 30 秒。
什么情况不该省钱?
以下场景建议直接使用 Opus:
合同审查、财务分析等关键决策 对质量有极致要求的输出 时间紧迫、时间比钱更值钱的情况
行动清单:30 分钟搞定优化
启用 Prompt Caching(5 分钟) 清理 Skills 列表(10 分钟) 压缩 TOOLS.md(15 分钟) 配置模型策略(5 分钟) 设置自动历史压缩(5 分钟)
30 分钟工作,换来每月 $240 的节省。
核心理念:AI 的本质是"按需付费"
不是"能省就省",而是"该花就花,不该花就不花"。
夜雨聆风