从入门到精通,涵盖架构原理、部署方案、渠道接入、Skills系统、模型配置、安全与成本的一系列指导方案。
关于Openclaw 的基础知识、技术架构、部署方案、渠道接入 开发与安全的请详见上几篇文章,本编文章主要从大模型的接入,国内外大模型的对比,以及本地大模型的部署和接入,各位小伙伴系好安全带现在出发咯。
目录
Table of Contents
1 模型提供商总览 ProviderOverview
3 国产模型配置 ChineseModels
4 本地模型与推荐方案 LocalModels
1 模型提供商总览
Provider Overview
OpenClaw支持十余家模型提供商,从国际顶尖到国产平价再到完全免费的本地模型,覆盖所有预算和场景。
OpenClaw最大的优势之一是模型自由:你不被绑定在某一家厂商上。通过 配置文件,可以灵活切换主力模型、设置Fallback备选链、甚至让不同任务走不同模型。
支持的模型提供商一览
配置核心概念
理解三个关键概念,就能掌握OpenClaw的模型配置:
内置Provider:Anthropic、OpenAI、Google、智谱(zai)等无需额外配置,设置API Key即可使 用自定义Provider:DeepSeek、豆包、Kimi等需要在models.providers中手动添加 Fallback机制:主模型不可用时自动切换到备选,这是最核心的省钱策略
{ env: { "API_KEY_NAME": "sk-xxx" },agents: {defaults: {model: {primary: "provider/model-name", // 主力模型fallbacks: ["provider/model-b"] // 备选(主模型限速时自动切换)}}},models: {mode: "merge", // 保留内置provider,叠加自定义providers: { /* 自定义provider配置// }}}
核心建议
设置models.mode: "merge"非常重要。它能保留所有内置Provider的同时叠加你的自定义配置。如果不设置,自定义配置会覆盖内置Provider。
2 国际模型配置
International Models
Anthropic Claude、OpenAI GPT、Google Gemini的完整配置指南。
Anthropic Claude
Claude是OpenClaw的默认模型提供商,也是社区公认的Agent任务效果最好的模型。Sonnet 4.6在工具调用的准确率和稳定性上显著领先其他模型。
配置方式
Claude是内置Provider,配置最简单:
# 环境变量方式ANTHROPIC_API_KEY=sk-ant-xxx#或在 openclaw.json 中设置{env: { "ANTHROPIC_API_KEY": "sk-ant-xxx" }}
模型ID:anthropic/claude-opus-4-6、anthropic/claude-sonnet-4-6、anthropic/claude-haiku-4-5
注意:Anthropic已封杀OAuth认证方式。使用Claude Pro/Max订阅账户通过OAuth连接OpenClaw的用户会收到警告甚至被锁定账户。目前唯一合法路径是使用API Key(按量付费)
省钱技巧:
Batch API可享50%折扣(输入输出均半价)
Prompt Caching可降低重复上下文成本达90%
日常任务用Sonnet即可,复杂任务再升级Opus
OpenAI GPT
配置方式
OPENAI_API_KEY=sk-xxxGoogle Gemini
配置方式
GOOGLE_API_KEY=xxx# 或通过 Google AI Studio 免费额度使用
Gemini的独家优势是2M上下文窗口和慷慨的免费额度(Flash每日有免费请求)。多模态能力也是三家中最强的。
3 国产模型配置
Chinese Models
国产模型是OpenClaw用户省钱的核心武器。DeepSeek-V3.2.2的输入价格仅为Claude Sonnet的 1/20。
DeepSeek
性价比之王。DeepSeek-V3.2.2是当前稳定版(2025年12月发布),输入价格仅$0.14/M tokens。2026年3月初 DeepSeek V4已发布(万亿参数级,支持100万Token上下文),旗舰版正在逐步放量。
配置方式(自定义Provider)
{env: { "DEEPSEEK_API_KEY": "sk-xxx" },models: {mode: "merge",providers: {deepseek: {baseUrl: "https://api.deepseek.com/v1",apiKey: "${DEEPSEEK_API_KEY}",api: "openai-completions",models: [{ id: "deepseek-chat", contextWindow: 128000, maxTokens: 8192 },{ id: "deepseek-reasoner", contextWindow: 128000, maxTokens: 8192 }]}}}}
智谱GLM
国产模型中代码能力最强的选择。GLM-5在SWE-bench上拿到了开源模型最高分,价格仅$0.80/M输入。更妙的是,OpenClaw内置了zai Provider,配置极为简单。
配置方式(内置支持)
# CLI快速配置openclaw onboard /-auth-choice zai-api-key# 或手动配置 openclaw.json{env: { "ZAI_API_KEY": "sk-xxx" },agents: {defaults: {model: { primary: "zai/glm-5" }}}}
注意: z.ai * 和 z-ai * 前缀会自动转换为 zai * 。
通义千问 Qwen
Qwen 3.5是阿里2026年2月发布的最新版本(397B总参数/17B激活,MoE架构,已开源)。代码专用的 Qwen3.5-Coder性价比极高。
配置方式(插件 + OAuth)
# 通过插件接入,OAuth设备码认证(无需API Key)openclaw plugins enable qwen-portal-authopenclaw gateway restartopenclaw models auth login -provider qwen-portal -set-default
模型ID: qwen-portal/coder-model 、 qwen-portal/vision-model 。每日2,000次免费请求。
豆包 Doubao
{env: { "DOUBAO_API_KEY": "xxx" },models: {mode: "merge",providers: {doubao: {baseUrl: "https: /ark.cn-beijing.volces.com/api/v3",apiKey: "${DOUBAO_API_KEY}",api: "openai-completions",models: [{ id: "doubao-seed-2.0-pro", contextWindow: 128000, maxTokens: 4096 }]}}}}
Kimi(月之暗面)
配置方式
{env: { "MOONSHOT_API_KEY": "sk-xxx" },models: {mode: "merge",providers: {moonshot: {baseUrl: "https: /api.moonshot.cn/v1",apiKey: "${MOONSHOT_API_KEY}",api: "openai-completions",models: [{ id: "kimi-k2.5", contextWindow: 256000, maxTokens: 8192 }]}}}}
也可通过OpenRouter接入:openrouter/moonshotai/kimi-k2.5
百度文心
文心5.0于2026年1月22日发布(2.4万亿参数,原生全模态,激活参数比<3%)。
MiniMax
MiniMax M2.5(230B参数)在SWE-Bench上得分80.2%,代码能力突出。
配置方式
{env: { "MINIMAX_API_KEY": "xxx" },models: {mode: "merge",providers: {minimax: {baseUrl: "https: /api.minimax.chat/v1",apiKey: "${MINIMAX_API_KEY}",api: "openai-completions",models: [{ id: "minimax-m2.5", contextWindow: 128000, maxTokens: 8192 }]}}}}
聚合平台:一个API Key调多个模型
硅基流动 SiliconFlow(国内首选)
国内最大的模型聚合平台,一个API调用多个开源模型,延迟低,有免费额度。
{env: { "SILICONFLOW_API_KEY": "sk-xxx" },models: {mode: "merge",providers: {siliconflow: {baseUrl: "https: /api.siliconflow.cn/v1",apiKey: "${SILICONFLOW_API_KEY}",api: "openai-completions",models: [{ id: "Pro/deepseek-ai/DeepSeek-V3.2", contextWindow: 128000, maxTokens: 8192 },{ id: "Pro/zai-org/GLM-5", contextWindow: 128000, maxTokens: 8192 }]}}}}
290+模型,OpenClaw内置支持,但有5.5%平台费。
openclaw onboard -auth-choice apiKey -token-provider openrouter -token "$OPENROUTER_API_KE// 模型ID格式:openrouter/provider/model// openrouter/deepseek/deepseek-chat// openrouter/openrouter/auto(自动选择最优模型)
one-api / new-api(自建方案)
开源API管理工具,自建网关,统一管理多个API Key,支持负载均衡和故障转移。适合团队使用。
注意 中转服务必须支持OpenAI的Responses API( /v1/responses 路径),不仅仅是Chat Completions API。部分 旧版中转工具不支持此接口
Coding Plan 包月套餐对比 国内⼚商 AI 编程订阅
2026年,国内主要AI厂商和云平台纷纷推出了面向AI编程工具(OpenClaw、Cursor、Claude Code等)的 Coding Plan包月套餐。相比按量付费的API,包月套餐的优势是成本可预期、无需管理API Key余额,尤其适合个人开发者和轻度到中度使用者。
厂商自营 Coding Plan
云平台聚合 Coding Plan
云平台方案的最大优势是一个套餐包含多家模型,可自由切换。
Coding Plan 选型建议
核心建议
1. 新手 / 轻度使用
- 首选:阿里云百炼 Lite
首月仅 7.9 元,模型最全,次数按月结算无时间限制,最适合入门。
2. 代码 / 开发任务
- 首选:火山引擎 Lite
内置 DeepSeek + 豆包 Code,低价高配,专门适配编程场景。
3. 重度 / 高频请求
- 首选:腾讯云 / 火山引擎 Pro
每 5 小时高限额,适合长时间挂机、批量处理、多任务并行。
4. 性价比之王
- 首月全部选 Lite
(7.9~8.91 元)低成本体验全模型,用完再升级 Pro
4 本地模型与推荐方案
Local Models & Recommendations
完全免费,完全离线,完全隐私。代价是需要硬件投入,能力上限受限。
Ollama
最流行的本地模型运行方案,完全免费,OpenClaw能自动发现已安装的模型。
# 1. 安装Ollama后拉取模型ollama pull qwen2.5:32bollama pull deepseek-r1:14b# 2. 设置环境变量(任意值即可)OLLAMA_API_KEY=ollama-local# 3. OpenClaw自动发现支持工具调用的本地模型
LM Studio
有GUI界面的本地模型方案,使用Llama.cpp后端,原始性能更好。工具调用在流式模式下比Ollama更稳定。 OpenClaw创始人Peter Steinberger个人使用LM Studio作为本地后端。
{models: {mode: "merge",providers: {lmstudio: {baseUrl: "http: /127.0.0.1:1234/v1",apiKey: "lm-studio",api: "openai-responses",models: [{ id: "model-name", contextWindow: 32768, maxTokens: 8192 }]}}}}
推荐本地模型
硬件要求速查:运行3-7B参数模型最低需要16GB RAM。运行32B参数模型推荐32GB RAM。如果有 NVIDIA/Apple Silicon GPU会显著加速推理。
五套推荐方案
方案一:极致省钱(月均<$5)
主力:DeepSeek-V3.2($0.14/$0.28)
备选:Qwen 3.5 Plus($0.40/$1.20)
心跳/Cron:GLM-4.5-Flash(免费)
推理任务:DeepSeek-R1($0.55/$2.19)
适合:个人开发者、学习探索。风险:DeepSeek高峰期延迟,需Fallback兜底。
方案二:国产性价比(月均$5-15)
主力:GLM-5($0.80/$2.56)
备选:DeepSeek-V3.2($0.14/$0.28)
推理增强:Kimi K2.5($0.60/$3.00)
简单任务:GLM-4.5-Flash(免费)
适合:国内用户,追求中文体验和稳定性。GLM-5代码能力强,延迟低。
方案三:国际平衡(月均$10-30)
主力:Claude Sonnet 4.6($3.00/$15.00)
轻量:Claude Haiku 4.5 或 Gemini Flash
复杂任务:Claude Opus 4.6(按需升级) 心跳/Cron:Gemini Flash(免费额度)
适合:追求Agent效果最优、预算充足。Claude在Agent/工具调用场景效果最好。
// 方案四的Fallback配置示例{agents: {defaults: {model: {primary: "anthropic/claude-sonnet-4-6",fallbacks: ["anthropic/claude-haiku-4-5","deepseek/deepseek-chat"]}}}}
方案五:完全免费
选项A:本地 Ollama + Qwen3.5-Coder:32B 或 Devstral-24B(需32GB RAM)
选项B:免费API组合 — GLM-4.5-Flash + ERNIE Speed + Gemini Flash
适合:隐私敏感、纯实验用途。本地方案需要较好的硬件
价格速查排行(输入价格 /1M tokens)
配置要点速查
openclaw onboard | |
openclaw models list | |
openclaw models status -probe | |
openclaw config set agents.defaults.model.primary provider/model | |
openclaw.json 的 fallbacks 数组 | |
openclaw gateway restart | |
"${VAR_NAME}" 引用 env 中的变量 |
下一篇 将重点介绍跟Openclaw 紧密相关的安全、搭建成本、社区生态等,如果小伙伴们对大模型的微调、蒸馏、剪枝感兴趣的话后期会出专门的大模型系列
夜雨聆风