很多人刚用 OpenClaw 就被账单吓到,以为是工具收费,其实OpenClaw 本身完全免费开源,真正花钱的地方和省钱开关,都在这一篇里讲透。
一、先搞懂:OpenClaw 的钱到底花在哪?
OpenClaw 只是调度和执行框架,自身不产生算力费用,所有成本都来自这3块:
1. 大模型 API 调用费(占90%以上)
- 按 Token(输入+输出) 计费
- 多轮思考、长上下文、记忆检索都会额外消耗 Token
- 模型越贵(GPT-4o、Claude 3 Opus、高端国产模型),消耗越猛
2. 服务器/运行环境费
- 本地电脑跑:只花电费,几乎可忽略
- 云服务器(阿里云/腾讯云/AWS):按配置计费,轻量机几十元/月
3. 隐形消耗(最容易被忽略)
- 心跳轮询:定时唤醒模型,产生无效 Token
- 超长上下文/全量记忆塞入prompt
- 重复请求、失败重试
一句话:OpenClaw 不收费,收费的是你背后接的大模型。
二、零成本方案:OpenClaw + 豆包(完全不花钱)
这是个人用户最稳、最省的方案,全程无 Token 费、无订阅。
实操步骤
1. 正常安装、启动 OpenClaw
2. 在配置文件中选择非 API 方式对接豆包(网页/客户端通道)
3. 保存配置,重启 OpenClaw 服务
4. 直接发指令,所有思考走豆包免费能力
优点:
- 0 Token 费、0 服务费
- 支持基础对话、文件整理、简单自动化
- 适合个人日常使用、轻量智能体场景
三、API 接入必看:6个省钱实操设置
如果你必须用 API 模型(GPT/千问/文心/Kimi 等),按下面一步步关“吞钱开关”。
1. 模型分层调用(最有效)
实操设置:
- 简单问答、总结、格式整理 → 用低价/免费模型(千问 Lite、豆包免费版)
- 复杂推理、代码、多步骤任务 → 才切高阶模型
- OpenClaw 配置文件中,按任务类型绑定不同模型
2. 关闭/调大心跳间隔,禁止无效唤醒
很多人账单爆炸,就是心跳太频繁。
实操设置:
- 找到配置中 heartbeat / polling_interval 相关项
- 将时间改为 30–60分钟,或直接设为 false 关闭
- 不用时直接关闭 OpenClaw 进程,不要后台挂着
3. 精简上下文长度 & 记忆策略
实操设置:
- 限制单轮上下文最大 Token: max_tokens 设合理值(如 2048/4096)
- 开启记忆摘要/压缩,不要全量历史塞给模型
- 只把关键信息写入长期记忆,无关内容自动清理
4. 开启请求缓存,重复问题不重复计费
实操设置:
- 开启 OpenClaw 内置缓存: cache = true
- 设置缓存过期时间(如 1小时/1天)
- 相同指令直接读缓存,不再调用模型 API
5. 关闭不必要的工具与自动执行
实操设置:
- 禁用不需要的插件(搜索、浏览器、文件监控等)
- 关闭自动重试机制,避免失败反复扣费
- 工具调用只在明确需要时才开启
6. 给 API 设额度上限 + 余额告警
实操设置:
- 去大模型控制台(火山引擎/OpenAI/百度智能云等)
- 开启 月度预算/额度上限
- 打开余额/消耗告警,接近阈值自动关停
四、终极零成本:OpenClaw + 本地开源模型
想彻底告别 Token 费,直接上本地模型。
实操方案:
1. 安装 Ollama
2. 拉取轻量模型: ollama run qwen:7b / llama3:8b
3. OpenClaw 配置对接本地 Ollama 地址
4. 重启 OpenClaw,全程本地运行
优点:
- 完全无 API 费用
- 数据不出本地,隐私更强
- 适合有显卡的电脑(RTX 3060/4060 以上即可流畅跑)
五、总结:OpenClaw 省钱口诀
- OpenClaw 本身不收费,API 才是真花钱
- 个人优先:OpenClaw + 豆包 = 永久免费
- API 用户:分层模型 + 关心跳 + 缩上下文 + 开缓存
- 极致省钱:OpenClaw + 本地开源模型
只要按上面实操配置,绝大多数人都能把 OpenClaw 月成本压到个位数,甚至直接归零。
夜雨聆风