乐于分享
好东西不私藏

OpenClaw 配置外部模型完全指南

OpenClaw 配置外部模型完全指南

OpenClaw 配置外部模型完全指南

副标题:3 步接入第三方大模型,API Key/配置文件/Web UI 三种方式一文讲清

开头:为什么需要配置外部模型?

你是不是也遇到过这些痛点:

  • ❌ 想用国产大模型(Kimi、Qwen、GLM),但不知道如何接入
  • ❌ 有本地部署的 Ollama/vLLM,却连不上 OpenClaw
  • ❌ 看到一堆 provider 配置示例,不知道哪个适合自己
  • ❌ 配置完测试失败,找不到问题出在哪

本文价值: 用一篇教程,带你彻底搞懂 OpenClaw 配置外部模型的全部方法。无论你是想用云端 API、本地模型,还是自建代理,都能找到对应的配置方案。

一、配置前的准备工作

1.1 确认你的模型类型

OpenClaw 支持两大类模型接入:

类型代表提供商配置方式
内置提供商OpenAI、Anthropic、Google、Moonshot 等只需设置 API Key
自定义提供商本地 Ollama、vLLM、LM Studio 等需配置 baseUrl + API 类型

1.2 获取必要的凭证

  • 云端 API:从提供商官网获取 API Key(如 OPENAI_API_KEY、MOONSHOT_API_KEY)
  • 本地模型:确保本地服务已启动(如 Ollama 默认运行在 http://127.0.0.1:11434)

二、方法一:命令行快速配置(推荐新手)

OpenClaw 提供了交互式配置向导,适合大多数内置提供商。

步骤 1:运行配置向导

openclaw onboard

步骤 2:选择认证方式

根据提示选择你的模型提供商,例如:

# OpenAI API Key
openclaw onboard --auth-choice openai-api-key

# Moonshot (Kimi)
openclaw onboard --auth-choice moonshot-api-key

# Ollama 本地模型
openclaw onboard --auth-choice ollama

步骤 3:设置默认模型

# 查看可用模型列表
openclaw models list

# 设置默认模型
openclaw models set moonshot/kimi-k2.5

↑ 截图 1:运行 openclaw onboard 后的交互式菜单,显示各提供商选项

三、方法二:修改配置文件(高级用户)

对于自定义提供商或需要精细控制的场景,直接编辑配置文件更灵活。

步骤 1:找到配置文件

配置文件位于:~/.openclaw/openclaw.json

步骤 2:添加自定义提供商配置

示例 1:配置 Moonshot(Kimi)

{
  "env": {
    "MOONSHOT_API_KEY": "sk-xxxxxxxxxxxxxx"
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "moonshot/kimi-k2.5"
      }
    }
  },
  "models": {
    "mode": "merge",
    "providers": {
      "moonshot": {
        "baseUrl": "https://api.moonshot.ai/v1",
        "apiKey": "${MOONSHOT_API_KEY}",
        "api": "openai-completions",
        "models": [{
          "id": "kimi-k2.5",
          "name": "Kimi K2.5",
          "contextWindow": 128000,
          "maxTokens": 8192
        }]
      }
    }
  }
}

↑ 截图 2:openclaw.json 配置文件中的 moonshot 提供商配置,高亮关键字段

示例 2:配置本地 Ollama

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/llama3.3"
      }
    }
  }
}

↑ 截图 3:配置文件关键代码段,包含 env、agents.defaults.model、models.providers 三个区域

步骤 3:保存并重启 Gateway

配置文件支持热重载,保存后 Gateway 会自动应用更改。如需手动重启:

openclaw gateway restart

四、方法三:Web UI 界面配置(可视化操作)

OpenClaw 提供了 Control UI,适合不喜欢编辑配置文件的用户。

步骤 1:打开 Control UI

在浏览器中访问:http://127.0.0.1:18789

步骤 2:进入 Config 标签页

点击顶部导航栏的 Config 标签,进入配置界面。

步骤 3:配置模型参数

  • Agents → Defaults → Model 区域设置 primary 模型
  • Models → Providers 区域添加自定义提供商
  • 使用 Raw JSON 编辑器可直接粘贴完整配置

步骤 4:保存配置

点击 Save 按钮,配置会自动应用到 Gateway。

五、验证配置是否成功

方法 1:命令行测试

# 查看当前默认模型
openclaw models list

# 发送测试消息
openclaw chat "你好,请回复一个测试消息"

方法 2:在聊天中测试

直接在微信/Telegram/Discord 等渠道发送消息,观察是否正常响应。

方法 3:查看 Gateway 日志

openclaw logs --follow

观察是否有模型调用成功的日志输出。

↑ 截图 4:配置验证成功,模型列表显示 primary 模型,测试对话正常响应

六、常见问题与避坑指南

❓ 问题 1:配置后 Gateway 无法启动

原因:配置文件格式错误或 schema 验证失败

解决:

# 运行诊断命令
openclaw doctor

# 自动修复配置
openclaw doctor --fix

❓ 问题 2:API Key 无效或权限不足

原因:API Key 填写错误或未在提供商后台配置 IP 白名单

解决:

  • 检查 API Key 是否正确复制(注意前后空格)
  • 登录提供商后台,将服务器 IP 加入白名单
  • 检查账户余额是否充足

❓ 问题 3:本地模型连接超时

原因:本地服务未启动或端口被占用

解决:

# 检查 Ollama 是否运行
ollama list

# 检查端口是否监听
curl http://127.0.0.1:11434/v1/models

# 重启本地服务
ollama serve

❓ 问题 4:模型响应 truncated 或上下文不足

原因:配置的 contextWindow 超过模型实际支持

解决:在配置中明确设置合理的 contextWindow 值

🚫 避坑指南

坑点正确做法
直接复制网上配置不修改根据实际提供商修改 baseUrl 和 API Key
忘记设置 models.mode: "merge"添加自定义提供商时务必设置,否则内置模型会失效
API Key 明文提交到 Git使用 ${ENV_VAR} 引用环境变量
本地模型未启动就测试先用 curl 测试本地服务是否正常
配置文件格式错误使用 JSON5 语法检查工具验证

结语

配置外部模型是使用 OpenClaw 的第一步,也是最重要的一步。无论你选择哪种方式,记住三个关键点:

  1. 选对提供商类型(内置 vs 自定义)
  2. 配置正确的认证信息(API Key 或 OAuth)
  3. 验证配置是否生效(测试对话)

如果遇到问题,运行 openclaw doctor 诊断,或查阅官方文档:https://docs.openclaw.ai

📌 本文提到的配置示例已整理成 gist,关注公众号回复"openclaw 配置"获取下载链接。