OpenClaw 收费与Token完全指南 + 模型绑定教程
第一部分:收费模式与Token详解
1.1 费用构成总览
部署使用OpenClaw会产生以下两部分费用:
| 服务器/运行环境费用 | ||
| 模型调用费用 |
OpenClaw本身完全免费开源(MIT许可),您只需承担运行环境和AI模型的成本。
1.2 Token到底是什么?
Token是AI处理信息的最小计价单元,也是OpenClaw运行的“数字口粮”。
Token计量规则:
中文场景:约1-2个汉字 = 1个Token,1000 Token ≈ 750个中文字符 英文场景:约4个字符/1个单词 = 1个Token,1000 Token ≈ 500个英文单词 特殊符号、标点、代码片段也会单独折算成Token
为什么OpenClaw看起来更费Token?
普通AI聊天是一问一答,Token消耗可控。但OpenClaw是智能体自动化工具,会:
主动调用多轮工具 保留长上下文记忆 加载系统配置和技能描述 单次任务可能触发多次模型调用
所以Token消耗自然更明显。
1.3 Token消耗场景详解
OpenClaw的Token消耗分为输入Token和输出Token两部分,两者都会计费:
| 输入Token | ||
| 输出Token | ||
| 隐形消耗 |
举个例子:让OpenClaw读取一份1000字的文档并总结
读取文档内容 → 计入输入Token 生成的总结文案 → 计入输出Token 工具调用的附加信息 → 额外折算Token 三者叠加 = 本次总消耗
1.4 两种主流计费模式
大模型API提供商通常提供两种计费模式:
| 包月订阅(Coding Plan) | ||
| 按Token用量计费 |
成本优化建议:
轻度使用(每日<50次对话):按量付费 + 免费额度 重度使用(每日>200次对话):包月订阅可能更划算 简单任务可选用轻量模型(如Turbo版),复杂任务用高性能模型
1.5 省钱技巧汇总
监控Token消耗:使用 openclaw status查看用量,发现异常及时排查选择合适的模型:简单任务用性价比高的模型,复杂任务用高性能模型 合理控制上下文长度:定期清理不必要的对话历史 开启用量预警:在模型提供商控制台设置告警,防止意外超额
第二部分:模型绑定配置教程
2.1 配置方式选择
OpenClaw支持两种模型配置方式,可根据技术背景选择:
| 交互式配置 | |||
| 配置文件方式 |
推荐顺序:先通过交互式配置快速体验,后续需要多模型切换时再用配置文件方式。
2.2 交互式配置教程
使用openclaw configure命令进入交互式配置界面:
openclaw configure
详细步骤:
选择Gateway运行位置
◆ Where will the Gateway run?
│ ● Local (this machine) # 选择此项
│ ○ Remote (info-only)
└选择要配置的模块
◆ Select sections to configure
│ ○ Workspace
│ ● Model (Pick provider + credentials) # 选择此项配置模型
│ ○ Web tools
│ ○ Gateway
│ ○ Continue
└选择模型提供商
◆ Model/auth provider
│ ● OpenAI
│ ● Anthropic (Claude)
│ ● MiniMax
│ ● DeepSeek
│ ● Custom (OpenAI-compatible) # 如果您的API兼容OpenAI,选择此项
└选择您使用的模型提供商或选择Custom
输入API Key
◆ Enter API key
│ sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
└完成配置
直接回车选择默认选项 最后选择 Continue退出配置界面
2.3 配置文件方式(多模型管理)
配置文件位于 ~/.openclaw/openclaw.json(macOS/Linux)或 %USERPROFILE%\.openclaw\openclaw.json(Windows)。
基础配置结构:
{
"env": {
"YOUR_API_KEY": "sk-your-api-key-here"
},
"agents": {
"defaults": {
"model": {
"primary": "provider/model-id"
}
}
},
"models": {
"providers": {
"provider-name": {
"baseUrl": "https://api.example.com/v1",
"apiKey": "${YOUR_API_KEY}",
"api": "openai-completions",
"models": [...]
}
}
}
}
字段含义:
env:存放环境变量,用于存储敏感信息如API Keyagents.defaults.model.primary:指定默认使用的模型,格式为提供商/模型IDmodels.providers:定义可用的模型提供商baseUrl:API端点地址,通常以/v1结尾apiKey:API密钥,可以使用${变量名}引用env中定义的值api:API类型,常用openai-completions表示兼容OpenAI格式models:可选,可在此列出该提供商支持的模型及参数
2.4 通用配置示例(OpenAI兼容API)
对于任何提供OpenAI兼容接口的模型服务,配置方式如下:
{
"env": {
"MY_API_KEY": "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"
},
"agents": {
"defaults": {
"model": {
"primary": "myprovider/my-model-id"
}
}
},
"models": {
"providers": {
"myprovider": {
"baseUrl": "https://your-api-endpoint.com/v1",
"apiKey": "${MY_API_KEY}",
"api": "openai-completions",
"models": [
{
"id": "my-model-id",
"name": "My Model Name",
"contextWindow": 32768,
"maxTokens": 4096
}
]
}
}
}
}
说明:
baseUrl必须指向您的API服务地址(通常以/v1结尾)apiKey支持从环境变量读取,避免明文存储api固定为openai-completions表示使用OpenAI格式的请求/响应models数组用于告知OpenClaw该模型的能力(如上下文窗口、最大输出长度),可省略但建议提供
2.5 多模型切换与管理
配置多个模型:
{
"agents": {
"defaults": {
"models": {
"myprovider/model-a": { "alias": "Model A" },
"myprovider/model-b": { "alias": "Model B" },
"otherprovider/model-c": { "alias": "Model C" }
}
}
}
}
切换当前使用的模型:
在Web管理面板中切换 或修改配置文件中的 model.primary字段后重启Gateway
查看可用模型:
openclaw models list
2.6 验证配置是否正确
测试API连接:
openclaw health
# 应返回 OK
查看Gateway状态:
openclaw gateway status
# 应显示 "running"
发送测试消息: 在Web面板或IM工具中发送消息,观察模型响应
2.7 常见配置问题排查
问题1:API Key不识别
检查API Key是否正确,是否与服务端要求的格式一致 确认API Key具有调用该模型的权限
问题2:模型调用失败
确认模型ID拼写正确 检查 baseUrl是否包含正确的路径(如/v1)查看日志: tail -f ~/.openclaw/logs/gateway.log
问题3:配置修改后未生效
openclaw gateway restart
问题4:费用异常
使用 /status查看Token消耗检查是否意外使用了高成本模型 确认模型提供商的用量统计是否匹配
第三部分:配置速查
baseUrl | /v1结尾 | https://api.example.com/v1 |
apiKey | ${MY_API_KEY} | |
api | openai-completions | openai-completions |
model.primary | myprovider/gpt-4 | |
models |
如有其他问题,可参考:
OpenClaw官方文档:https://docs.openclaw.ai 所选模型提供商的API文档
夜雨聆风