一篇全搞定 OpenClaw 多模型配置指南,Claude、DeepSeek、Ollama!
上一篇初始化时,我们用 MiniMax 跑通了基础配置。但实际使用中,你会发现不同任务适合不同模型——写代码用 Claude、日常对话用 DeepSeek、完全免费就用 Ollama。本篇手把手教你配置主流模型,并说清楚怎么在多个模型之间切换。
1. OpenClaw 支持哪些大模型?
OpenClaw 基于标准的模型接口协议设计,理论上支持所有兼容 OpenAI API 格式的大模型。以下是目前测试稳定、推荐配置的主流模型:
|
|
|
|
|
|
|---|---|---|---|---|
| DeepSeek V3 / R1 |
|
|
|
|
| Claude Sonnet 4 |
|
|
|
|
| GPT-4o |
|
|
|
|
| Gemini 2.0 Flash |
|
|
|
|
| MiniMax M2.5 |
|
|
|
|
| Ollama(本地) |
|
|
|
|
2. 怎么切换 / 新增模型?
OpenClaw 提供两种方式修改模型配置:
方法一:重新执行 Onboarding(推荐新手)
openclaw onboard
走一遍向导,在「选择 AI 大模型」那步换成你想用的模型就行。
方法二:直接修改配置文件(推荐进阶用户)
OpenClaw 的配置文件在:
# Windows 路径(默认)C:\Users\你的用户名\.openclaw\config.json
打开这个文件,找到 model 相关的配置项进行修改。修改完成后,重启 OpenClaw 生效:
openclaw restart
方法三:通过 Web UI 配置(最直观)
打开 http://127.0.0.1:18789,进入 Settings → Model,在界面上直接修改模型和 API Key,保存即可。
3. 各模型 API Key 获取教程
3.1 DeepSeek(国内直连,极低价格)
推荐指数:⭐⭐⭐⭐⭐(日常使用首选)
1. 注册账号官网:https://platform.deepseek.com/ 选择手机号注册,完成验证。
2. 创建 API Key登录后,点击右上角头像 → 「API keys」 → 「创建 API key」
3. 充值新用户赠送少量免费额度,用完后充值即可。费用极低:
-
DeepSeek-V3:约 ¥0.002/千 token(输入) -
DeepSeek-R1(推理模型):约 ¥0.016/千 token
4. 配置到 OpenClaw
执行 openclaw onboard,大模型选择:
? Which AI provider? > DeepSeek DeepSeek-V3(推荐日常使用) DeepSeek-R1(复杂推理任务)
粘贴 API Key 完成。
3.2 Anthropic Claude(高质量首选)
推荐指数:⭐⭐⭐⭐⭐(代码和长文最强)
⚠️ 网络要求:需要代理访问。如果你没有代理,请先看 3.1 DeepSeek。
1. 注册账号官网:https://console.anthropic.com/ 需要境外手机号或邮箱注册(国内手机号不可用)。
2. 创建 API Key登录后,进入 「API Keys」 → 「Create Key」
📌 注意:Claude API 目前有一定门槛,新账号可能需要等待审核或小额充值才能创建 API Key。
3. 推荐型号
|
|
|
|
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
4. 配置到 OpenClaw
? Which AI provider? > Anthropic (Claude) claude-sonnet-4-5(推荐)
粘贴 API Key 完成。
3.3 OpenAI GPT(生态最完整)
推荐指数:⭐⭐⭐⭐(工具调用和函数调用最稳定)
⚠️ 网络要求:需要代理访问。
1. 注册账号官网:https://platform.openai.com/ 需要境外手机号验证(或使用国内第三方代充平台)。
2. 创建 API Key进入 「API keys」 → 「Create new secret key」
⚠️ 避坑:API Key 只显示一次!创建后立即复制保存,否则只能重新创建。
3. 推荐型号
|
|
|
|---|---|
|
|
|
|
|
|
|
|
|
4. 配置到 OpenClaw
? Which AI provider? > OpenAI gpt-4o(推荐)
3.4 Google Gemini(免费额度最大)
推荐指数:⭐⭐⭐⭐(免费套餐慷慨,多模态任务好用)
⚠️ 网络要求:需要代理访问。
1. 获取 API Key直接访问:https://aistudio.google.com/apikey 用 Google 账号登录,点击「Create API key」即可,全程免费。
2. 免费额度(2025年)
|
|
|
|---|---|
|
|
|
|
|
|
💡 Gemini 2.0 Flash 免费额度对个人用户来说完全够用,是「白嫖党」的首选。
3. 配置到 OpenClaw
? Which AI provider? > Google Gemini gemini-2.0-flash(免费额度大,推荐) gemini-2.5-pro(质量最高)
3.5 MiniMax(国内免费入门)
推荐指数:⭐⭐⭐(入门测试用,稳定性一般)
1. 注册账号官网:https://www.minimaxi.com/ 「API 开放平台」 手机号注册,新用户赠送免费 token 额度。
2. 创建 API Key登录后首页点「获取你的 Key」→「创建 API Key」→ 复制保存。
3. 配置到 OpenClaw
? Which AI provider? > MiniMax MiniMax M2.5 (CN)(推荐)
3.6 Ollama(本地免费,零API费用){#ollama}
推荐指数:⭐⭐⭐⭐(隐私党 & 零费用首选)
Ollama 是一个本地大模型运行框架,完全在你电脑上运行,不需要联网、不需要 API Key、完全免费。代价是:电脑配置要够,推荐 16GB+ 内存 + 独立显卡。
1. 安装 Ollama
官网:https://ollama.ai/
Windows 下载安装包,一键安装。
2. 下载模型
打开 PowerShell 执行:
# 下载 Qwen2.5(阿里通义,中文最好)ollama pull qwen2.5:7b# 下载 DeepSeek-R1(推理能力强)ollama pull deepseek-r1:7b# 下载 Llama 3.1(英文综合最强)ollama pull llama3.1:8b
📌 模型大小参考:7B 模型约 4-5GB,8B 模型约 5-6GB,请确保磁盘空间充足。
下载完成后,Ollama 会在本地 http://127.0.0.1:11434 启动 API 服务。
3. 配置到 OpenClaw
? Which AI provider? > Ollama(Local) qwen2.5:7b(中文推荐)
OpenClaw 会自动连接本地 Ollama 服务,不需要填写 API Key。
4. 验证 Ollama 是否正常运行
ollama list
能看到已下载的模型列表就说明 Ollama 运行正常。
4. 多模型配置:同时挂多个模型
很多用户问:能不能配置多个模型,根据任务类型自动选择?
答:可以,OpenClaw 支持配置多个模型,并通过指令或规则切换。
配置方式
打开配置文件 ~/.openclaw/config.json,添加多个模型配置:
{"models": [ {"name": "deepseek-default","provider": "deepseek","model": "deepseek-chat","apiKey": "sk-xxxxxxxx","isDefault": true }, {"name": "claude-code","provider": "anthropic","model": "claude-sonnet-4-5","apiKey": "sk-ant-xxxxxxxx" }, {"name": "ollama-local","provider": "ollama","model": "qwen2.5:7b","baseUrl": "http://127.0.0.1:11434" } ]}
切换模型的方式
方式一:在指令中直接指定
用 Claude 帮我审查这段代码 [粘贴代码]用本地模型帮我整理这份文档
方式二:在 Web UI 里临时切换
进入 http://127.0.0.1:18789 → 右上角模型选择器 → 切换当前会话使用的模型。
方式三:设置 Agent 级别的默认模型
如果你配置了多个 Agent(比如「代码助手」「写作助手」),可以给每个 Agent 单独指定默认模型,实现自动分工。
5. 模型选择建议:不同场景怎么选?
|
|
|
|
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
6. 常见问题 & 避坑
Q:API Key 填进去后提示「Authentication failed」?检查 Key 前后有没有空格。Key 是否已经过期或被吊销?重新生成一个试试。
Q:用了需要代理的模型,但没有代理怎么办?切换到国内直连的模型(DeepSeek、MiniMax、Qwen),功能一样,只是模型不同。
Q:Ollama 本地模型运行很慢?正常现象。7B 模型需要 8GB+ 内存,推荐用 GPU 加速。如果只有 CPU,速度会明显慢于云端模型。
Q:切换了模型,之前的对话记忆还在吗?在。OpenClaw 的记忆存储在本地,与模型无关,切换模型不会丢失记忆。
Q:能同时用多个 API Key 防止额度耗尽吗?可以。在配置文件里配置多个同一 provider 的 Key,OpenClaw 支持轮询调用(需配置 "rotation": true)。
Q:国内有没有 Claude/GPT 的替代中转服务?有一些第三方 API 中转服务(非官方)可以国内直连使用 Claude/GPT,但稳定性和安全性参差不齐,自行评估风险。OpenClaw 支持自定义 baseUrl,填入中转地址即可。
小结
多模型配置的核心思路是:
入门测试 → MiniMax / DeepSeek(国内直连,门槛最低) ↓日常主力 → DeepSeek-V3(性价比最高) ↓高质量任务 → Claude Sonnet(代码、长文) ↓零费用方案 → Ollama 本地部署 + Gemini 免费套餐
选模型不需要纠结,多试几个,找到自己顺手的就行。
—全文完—

夜雨聆风