OpenClaw小龙虾省钱指南|让 AI 助手更聪明地花钱
⚡ 快速入门
如果你只想快速上手,按优先级做这三件事:
-
1. 后台 cron job 换便宜模型(改一行配置,立竿见影) -
2. 精简 MEMORY.md(删掉废话,每条消息都能省) -
3. 简单定时任务加 lightContext: true(一行参数,轻装上阵)
前言:Token 是什么?为什么要省?
每次你使用飞书 / 钉钉 / 微信跟 OpenClaw 对话,OpenClaw 都会把
「对话历史 + 系统提示 + 你的问题」 全部打包发给 AI 模型,模型读完之后再回答你。
这个打包过程消耗的”字数单位”就叫 token:
-
• 约每 1 个英文单词 = 1 token -
• 约每个中文字 = 1~2 token
Token 越多 = 花钱越多,响应越慢。
好消息是:OpenClaw 提供了多种方法,可以在不影响使用体验的前提下大幅减少 token 消耗。
优化一:后台任务用便宜模型(最直接省钱)
原理
OpenClaw 有两类任务:
|
|
|
|
|---|---|---|
| 主对话 |
|
|
| 后台任务 |
|
|
后台任务用强模型完全是浪费,换成便宜的小模型效果一样好。
怎么做
在 cron job 或 heartbeat 配置里,指定使用便宜模型:
model: "gpt-5-mini"
主对话继续保留 claude-sonnet 或更强的模型,后台全部换成轻量模型即可。
💡 选模型参考:不同模型提供商的便宜模型名称不同,请参考你所使用的提供商文档。例如 OpenAI 的
gpt-5-mini、Anthropic 的claude-haiku等。
优化二:精简 MEMORY.md 和系统 Prompt(减少每次上下文)
原理
OpenClaw 每次对话都会把 MEMORY.md、SOUL.md、AGENTS.md 等工作区文件全部塞进上下文,作为背景知识发给模型。
文件越长,每次消耗的 token 越多。 这些文件是每条消息都要重复发送的固定成本,精简一次,永久受益。
怎么做
-
• ✅ 定期清理 MEMORY.md中过时、重复、不再相关的内容 -
• ✅ 去掉注释性废话,只保留真正有用的事实和指令 -
• ✅ 把不常用的内容移到 notes/文件夹,需要时再手动提及
优化三:开启 lightContext(轻量上下文模式)
原理
OpenClaw 的 cron job 在 payload 里支持 lightContext: true 参数。开启后,该次任务只加载最精简的上下文,不带完整的工作区文件和历史记录。
适合那些不需要背景知识就能完成的简单定时任务(例如:”发一条天气提醒”、”整点报时”)。
怎么做
在创建 cron job 时,在 payload 里加上 lightContext: true:
{
"kind": "agentTurn",
"lightContext":true,
"message": "你的任务内容"
}
优化四:控制会话历史长度(避免上下文爆炸)
原理
AI 对话是有”记忆窗口”的。如果一个会话聊了几十轮,每次回复都要把前面所有内容重新发一遍,token 消耗会随轮次线性乃至指数级增长。
怎么做
-
• 定期清理:使用 /clear命令或开启新会话,避免单一会话越积越重 -
• 避免大段粘贴:把长文档、大段代码存成文件,需要时用工具读取,而不是直接粘贴到对话里 -
• 一次性任务:使用下方的 isolated 子 Agent 模式(见优化五)
优化五:isolated 子 Agent 模式(一次性任务隔离)
原理
用 sessions_spawn 创建 isolated 子 Agent 处理一次性任务。任务完成后会话自动销毁,不会污染主会话的历史记录,也不会积累多余的 token 负担。
怎么做
对于”做完就扔”的任务(批量处理、一次性研究等),使用 isolated 模式:
{
"sessionTarget": "isolated",
"payload": {
"kind": "agentTurn",
"message": "帮我做 XXX,做完汇报结果"
}
}
优化六:工具调用要精准(避免反复试错)
原理
每次工具调用(搜索、读文件、执行命令)的结果都会写回对话历史,占用 token。如果一个任务调了 5 次工具才成功,中间所有失败结果全都算在账单里。
怎么做
-
• 描述清晰:任务描述尽量一次说清楚,减少 AI 反复探索的次数 -
• 限制可用工具:用 toolsAllow参数限制 cron job 只能调用必要的工具,避免 AI “乱翻抽屉”
{
"kind": "agentTurn",
"toolsAllow": ["read_file", "send_message"],
"message": "你的任务内容"
}
-
• 分阶段处理:复杂任务先用便宜模型探路,确认方向后再用强模型精细处理
💡 一键优化提示词
把下面这段话直接发给你的 OpenClaw,它会帮你检查并自动执行上述优化:
请帮我做一次 token 节省优化,具体步骤如下:
1. 检查我现有的 cron job 列表,把所有后台定时任务的模型换成当前模型提供商对应的轻量模型(例如 gpt-5-mini 或 claude-haiku),主对话任务不变。
2. 检查工作区的 MEMORY.md 文件,帮我识别并清理其中重复、过时、或纯注释性的内容,压缩到核心事实与指令。
3. 对所有 cron job 里的简单定时任务(不需要背景知识的),在 payload 里加上 "lightContext": true。
4. 给我一份优化总结,列出做了哪些改动、预计能节省多少上下文 token,以及还有哪些需要我手动配合的地方。
总结对比表
|
|
|
|
|
|
|---|---|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
如果你觉得这篇文章对你有帮助,欢迎分享给身边的朋友!更多技术干货,请关注我的公众号。
夜雨聆风