乐于分享
好东西不私藏

OpenClaw小龙虾省钱指南|让 AI 助手更聪明地花钱

OpenClaw小龙虾省钱指南|让 AI 助手更聪明地花钱

⚡ 快速入门

如果你只想快速上手,按优先级做这三件事:

  1. 1. 后台 cron job 换便宜模型(改一行配置,立竿见影)
  2. 2. 精简 MEMORY.md(删掉废话,每条消息都能省)
  3. 3. 简单定时任务加 lightContext: true(一行参数,轻装上阵)

前言:Token 是什么?为什么要省?

每次你使用飞书 / 钉钉 / 微信跟 OpenClaw 对话,OpenClaw 都会把
「对话历史 + 系统提示 + 你的问题」 全部打包发给 AI 模型,模型读完之后再回答你。

这个打包过程消耗的”字数单位”就叫 token

  • • 约每 1 个英文单词 = 1 token
  • • 约每个中文字 = 1~2 token

Token 越多 = 花钱越多,响应越慢。

好消息是:OpenClaw 提供了多种方法,可以在不影响使用体验的前提下大幅减少 token 消耗。

优化一:后台任务用便宜模型(最直接省钱)

原理

OpenClaw 有两类任务:

任务类型
说明
是否需要强模型
主对话
你亲自在聊天,需要高质量回答
✅ 需要
后台任务
heartbeat 心跳检测、cron 定时任务、自动巡检等,你不直接看结果
❌ 不需要

后台任务用强模型完全是浪费,换成便宜的小模型效果一样好。

怎么做

在 cron job 或 heartbeat 配置里,指定使用便宜模型:

model: "gpt-5-mini"

主对话继续保留 claude-sonnet 或更强的模型,后台全部换成轻量模型即可。

💡 选模型参考:不同模型提供商的便宜模型名称不同,请参考你所使用的提供商文档。例如 OpenAI 的 gpt-5-mini、Anthropic 的 claude-haiku 等。

优化二:精简 MEMORY.md 和系统 Prompt(减少每次上下文)

原理

OpenClaw 每次对话都会把 MEMORY.mdSOUL.mdAGENTS.md 等工作区文件全部塞进上下文,作为背景知识发给模型。

文件越长,每次消耗的 token 越多。 这些文件是每条消息都要重复发送的固定成本,精简一次,永久受益。

怎么做

  • • ✅ 定期清理 MEMORY.md 中过时、重复、不再相关的内容
  • • ✅ 去掉注释性废话,只保留真正有用的事实和指令
  • • ✅ 把不常用的内容移到 notes/ 文件夹,需要时再手动提及

优化三:开启 lightContext(轻量上下文模式)

原理

OpenClaw 的 cron job 在 payload 里支持 lightContext: true 参数。开启后,该次任务只加载最精简的上下文,不带完整的工作区文件和历史记录

适合那些不需要背景知识就能完成的简单定时任务(例如:”发一条天气提醒”、”整点报时”)。

怎么做

在创建 cron job 时,在 payload 里加上 lightContext: true

{
  "kind"
: "agentTurn",
  "lightContext"
:true,
  "message"
: "你的任务内容"
}

优化四:控制会话历史长度(避免上下文爆炸)

原理

AI 对话是有”记忆窗口”的。如果一个会话聊了几十轮,每次回复都要把前面所有内容重新发一遍,token 消耗会随轮次线性乃至指数级增长。

怎么做

  • • 定期清理:使用 /clear 命令或开启新会话,避免单一会话越积越重
  • • 避免大段粘贴:把长文档、大段代码存成文件,需要时用工具读取,而不是直接粘贴到对话里
  • • 一次性任务:使用下方的 isolated 子 Agent 模式(见优化五)

优化五:isolated 子 Agent 模式(一次性任务隔离)

原理

用 sessions_spawn 创建 isolated 子 Agent 处理一次性任务。任务完成后会话自动销毁,不会污染主会话的历史记录,也不会积累多余的 token 负担。

怎么做

对于”做完就扔”的任务(批量处理、一次性研究等),使用 isolated 模式:

{
  "sessionTarget"
: "isolated",
  "payload"
: {
    "kind"
: "agentTurn",
    "message"
: "帮我做 XXX,做完汇报结果"
  }

}

优化六:工具调用要精准(避免反复试错)

原理

每次工具调用(搜索、读文件、执行命令)的结果都会写回对话历史,占用 token。如果一个任务调了 5 次工具才成功,中间所有失败结果全都算在账单里。

怎么做

  • • 描述清晰:任务描述尽量一次说清楚,减少 AI 反复探索的次数
  • • 限制可用工具:用 toolsAllow 参数限制 cron job 只能调用必要的工具,避免 AI “乱翻抽屉”
{
  "kind"
: "agentTurn",
  "toolsAllow"
: ["read_file", "send_message"],
  "message"
: "你的任务内容"
}
  • • 分阶段处理:复杂任务先用便宜模型探路,确认方向后再用强模型精细处理

💡 一键优化提示词

把下面这段话直接发给你的 OpenClaw,它会帮你检查并自动执行上述优化:

请帮我做一次 token 节省优化,具体步骤如下:

1. 检查我现有的 cron job 列表,把所有后台定时任务的模型换成当前模型提供商对应的轻量模型(例如 gpt-5-mini 或 claude-haiku),主对话任务不变。

2. 检查工作区的 MEMORY.md 文件,帮我识别并清理其中重复、过时、或纯注释性的内容,压缩到核心事实与指令。

3. 对所有 cron job 里的简单定时任务(不需要背景知识的),在 payload 里加上 "lightContext": true。

4. 给我一份优化总结,列出做了哪些改动、预计能节省多少上下文 token,以及还有哪些需要我手动配合的地方。

总结对比表

优化方法
省 token 来源
预期节省幅度
难度
推荐优先级
后台任务换便宜模型
每次推理成本直降
💰💰💰 显著
⭐ 简单
🔥🔥🔥 最高
精简 MEMORY.md
减少固定上下文
💰💰💰 显著
⭐⭐ 中等
🔥🔥🔥 最高
lightContext 模式
轻量任务不加载全量背景
💰💰 中等
⭐ 简单
🔥🔥 高
控制会话长度
避免历史滚雪球
💰💰 中等
⭐⭐ 中等
🔥🔥 高
isolated 子 Agent
一次性任务不污染主会话
💰 按需
⭐ 简单
🔥 中
精准工具调用
减少无效往返
💰 按需
⭐⭐⭐ 需习惯
🔥 中

如果你觉得这篇文章对你有帮助,欢迎分享给身边的朋友!更多技术干货,请关注我的公众号。

推荐阅读