📖 简介
OpenClaw 是一个强大的 AI 代理框架,通过 MCP(Model Context Protocol)支持本地大模型。本文将详细介绍如何配置 Ollama 本地模型与 OpenClaw 集成。
✅ 前置条件
1. 环境要求
- 操作系统: macOS / Linux / Windows (WSL)
- 运行环境:
- Node.js 18+ 或 Bun 1.0+
- Docker (可选,用于 GPU 加速)
- 硬件要求:
- CPU: 4 核心以上
- 内存:8GB+ RAM
- GPU (可选): NVIDIA 显卡 + CUDA 驱动
- 硬盘:50GB+ 可用空间(用于模型存储)
2. 安装 Ollama
#### macOS / Linux
# 下载 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 验证安装
ollama --version
#### Windows (WSL)
# 在 WSL 中安装
curl -fsSL https://ollama.com/install.sh | sh
#### Windows (原生)
- 访问 https://ollama.com 下载安装程序
- 运行安装程序
- 启动 Ollama 服务
#### Docker 版本(GPU 加速)
# 安装 Docker
# macOS
brew install --cask docker
# 验证 CUDA 设备
ollama ls-gpu
🤖 下载并测试本地模型
推荐模型
| 模型 | 参数 | 推荐用途 |
|---|---|---|
qwen3.5:9b | 9B | 中文对话、代码写作 |
qwen2.5:7b | 7B | 轻量级应用 |
llama3.1:8b | 8B | 英文任务 |
deepseek-coder:6.7b | 6.7B | 代码生成 |
下载模型
# 下载并运行一次 Qwen3.5 模型(中文)
ollama pull qwen3.5:9b
# 验证下载
ollama list
# 运行测试
echo "你好!请介绍一下 OpenClaw。" | ollama run qwen3.5:9b
🔧 配置 OpenClaw 连接 Ollama
1. 设置环境变量
# OpenClaw 配置
export OPENCLAW_OLLAMA_HOST=http://localhost:11434
export OPENCLAW_MODEL=qwen3.5:9b
export OPENCLAW_API_URL=http://localhost:11434/api/generate
# 或编辑配置
nano ~/.config/openclaw/config.env
🎯 测试连接
方法一:命令行测试
curl -X POST http://localhost:11434/api/generate \
-H "Content-Type: application/json" \
-d '{
"model": "qwen3.5:9b",
"prompt": "你好!请介绍一下 OpenClaw 的主要功能。",
"stream": false
}'
方法二:通过 OpenClaw 测试
export OPENCLAW_OLLAMA_HOST=http://localhost:11434
export OPENCLAW_MODEL=qwen3.5:9b
# 测试 OpenClaw 对话
echo "请帮我总结一下这篇文档的重点。" | openclaw chat
🚀 进阶配置
1. Docker GPU 加速
# 构建 Ollama GPU 镜像
docker pull ollama/ollama:latest
docker run -d \
--name ollama \
--gpus=all \
-v $HOME/ollama:/root/.ollama \
-p 11434:11434 \
ollama/ollama:latest
# 验证 GPU 是否正常工作
docker logs ollama
⚙️ 故障排查
问题 1:无法连接 Ollama
错误信息:
Connection refused to http://localhost:11434
解决方案:
- 检查 Ollama 是否在运行
- 启动 Ollama 服务
ollama serve &
- 检查防火墙设置
- 确认端口 11434 未被占用
💡 最佳实践
1. 模型选择建议
- 中文任务:
qwen3.5:9b或qwen2.5:7b - 英文任务:
llama3.1:8b或mixtral-8x7b - 代码生成:
deepseek-coder:6.7b
📚 资源链接
- Ollama 官网: https://ollama.com
- Ollama 文档: https://github.com/ollama/ollama
- OpenClaw 文档: https://github.com/JimLiu/openclaw
- 模型库: https://ollama.com/library
✅ 验证清单
- [ ] Ollama 已安装并运行
- [ ] 模型成功下载(
ollama list可见) - [ ] 通过 API 测试连接成功
- [ ] OpenClaw 能正常调用本地模型
- [ ] GPU 加速已配置(如使用)
夜雨聆风