OpenClaw(小龙虾)是个强大的 AI 助手,但 Token 消耗不便宜。今天分享 6 个实测有效的省 Token 技巧。
1. 关闭 thinking 模式
thinking 模式很强大,但每一步推理都在烧 Token。
/reasoning off # 关闭深度思考
/status # 查看当前模式简单问答、日常任务 → 关闭 thinking,省 30-50% Token。

关闭 thinking 后,简单任务省 Token 效果明显
2. 善用 HEARTBEAT 而非 Cron 轮询
浪费 Token 的做法:
- • 每分钟发心跳检查有没有新消息
- • 频繁
/status查看状态
聪明做法:
- • 把检查任务写入
HEARTBEAT.md,每次心跳批量执行 - • 用 Cron 做定时任务(精确到分钟,不消耗对话 Token)
# HEARTBEAT.md 示例
## 待检查任务
- [ ] 邮箱有无重要未读
- [ ] 日历有无接下来2小时的事件
- [ ] 天气是否需要提醒出门3. 善用 Memory,别让 AI "记不住"
每次对话开始,AI 都要重新理解上下文。上下文越短,Token 越少。
把重要的交给 Memory:
- • 写 MEMORY.md(长期记忆)
- • 写 memory/YYYY-MM-DD.md(每日日志)
- • 写 TOOLS.md(工具配置)
省 Token 的记忆原则:
- • 只记"精华",不记流水账
- • 超过 100 行的日志 → 提炼要点写进 MEMORY.md
- • 用文件名搜索(
memory_search)而非每次告诉 AI 所有背景
4. 复用 Skill,而非每次重新说
每次描述你想做什么,都在消耗 Token。
聪明做法:
# 直接触发 skill
"帮我发微博" # ❌ 每次解释
/post-to-weibo # ✅ skill 名称触发
# 用 skill 内置的快捷指令
"压缩这张图" # → baoyu-compress-image
"翻译成英文" # → baoyu-translate熟练使用 Skill 名称,能减少 20-30% 的 Token 消耗。
5. 批量操作,减少对话次数
每次对话都有基础 Token 开销。合并任务,减少次数。
❌ 浪费的做法:
用户: 帮我查天气
AI: OK
用户: 帮我查日历
AI: OK
用户: 帮我发微博
AI: OK✅ 聪明的做法:
用户: 帮我查天气和日历,然后发一条微博说今天适合户外活动
AI: [一次性完成三件事]一次多件事,省 40-60% 对话次数。
6. 选对模型,按需切换
OpenClaw 支持多模型。不同任务用不同模型:
| 任务 | 推荐模型 | 省 Token 理由 |
|---|---|---|
| 简单问答 | MiniMax-M2 | 便宜又快 |
| 复杂推理 | Claude/GPT | 能力强,值得 |
| 代码任务 | Claude Code | 专用优化 |
| 写作润色 | GPT-4o | 效果好 |
不同模型 Token 成本对比,小模型简单任务性价比最高
/model minimax-cn/MiniMax-M2 # 切换到便宜模型
/model default # 恢复默认模型简单任务用小模型,能省 70-80% Token。
总结
| 技巧 | 预计节省 |
|---|---|
| 关闭 thinking | 30-50% |
| 合并对话任务 | 40-60% |
| 正确使用 Skill | 20-30% |
| 简单任务用小模型 | 70-80% |
| Memory 管理上下文 | 20-40% |
| Cron 替代轮询 | 10-20% |
组合使用这些技巧,Token 消耗减半不是梦。
OpenClaw(小龙虾)让你的 AI 助手更聪明,也更会省钱 💰

夜雨聆风