技术AI AgentOpenClawWSL2Ollama
摘要:本文记录了 OpenClaw AI Agent 工具在 Windows 11 + WSL2 环境下的完整安装、配置、踩坑与卸载全过程。特别适合 Ollama 模型存放在 Windows 侧、需要跨环境调用的开发者参考。
一、环境说明
1.1 我的硬件环境
1.2 为什么选择这个架构
图1:Windows + WSL2 + Ollama 完整部署架构
选择理由:Ollama 模型文件放在 Windows NTFS 盘,WSL2 访问时 IO 性能比放在 WSL2 文件系统里更好(WSL2 磁盘 IO 相对较慢)。
二、方案选择:Windows 原生 vs WSL2
iwr -useb https://openclaw.ai/install.ps1 | iex | ||
curl -fsSL https://openclaw.ai/install.sh | bash | 推荐 |
踩坑经历:Windows 原生安装失败运行官方命令后直接被安全策略拦截:Error: Command blocked for security: iex。原因是 WorkBuddy 的 PowerShell 工具出于安全考虑,阻止了 iex(远程代码执行)命令。而官方安装脚本恰好依赖这个命令。结论:WSL2 方案更简单直接。
三、WSL2 安装:完整步骤
3.1 启用 systemd
sudo nano /etc/wsl.conf添加以下内容:
[boot]systemd=true保存后关闭 WSL(wsl --shutdown),重新打开终端验证:systemctl --user status,输出 ● running 即为正常。
3.2 一键安装
curl -fsSL https://openclaw.ai/install.sh | bash3.3 初始化配置向导
openclaw onboard --install-daemon交互过程全部按 Enter 选默认值,最后输入 Yes 同意安全声明即可。
3.4 获取 Gateway Token
openclaw config get gateway.auth.token保存好输出的 Token,登录 Dashboard 时需要用到。
3.5 启动 Dashboard
openclaw dashboard --no-open浏览器访问 http://localhost:18792,粘贴 Token 登录。
四、Ollama 跨环境连接配置
4.1 Windows 侧:开启 Ollama 网络暴露
Ollama 应用 → Settings → Network → 勾选 "Expose Ollama to the network"
4.2 WSL2 侧:确认访问地址
hostname -I172.21.32.1 | |
192.168.0.100 |
WSL2 不能用 localhost,必须用 172.21.32.1
4.3 配置 OpenClaw 连接(关键步骤)
重要提示:设置了 baseUrl 后,OpenClaw 会禁用自动发现,必须显式定义模型列表。只设置 apiKey 和 models set 命令是不够的!
运行以下 Python 脚本自动修改配置:
python3 << 'EOF'import jsonwith open('/home/yuxfd/.openclaw/openclaw.json', 'r') as f: config = json.load(f)config['models'] = { "providers": { "ollama": { "baseUrl": "http://172.21.32.1:11434", "apiKey": "ollama-local", "api": "ollama", "contextWindow": 16384, "models": [ {"id": "qwen2.5:14b", "name": "Qwen 2.5 14B", "contextWindow": 16384}, {"id": "qwen2.5-coder:14b", "name": "Qwen 2.5 Coder 14B", "contextWindow": 16384}, {"id": "deepseek-r1:14b", "name": "DeepSeek R1 14B", "contextWindow": 16384} ] } }}with open('/home/yuxfd/.openclaw/openclaw.json', 'w') as f: json.dump(config, f, indent=4)print("配置已更新")EOF4.4 重启并验证
openclaw daemon restartopenclaw models list正常输出:
五、踩坑实录
图2:常见问题排查表(红色=问题,绿色=解决方案)
六、完整卸载流程
注意:只跑 npm uninstall -g openclaw 是不够的!systemd 服务不会被 npm 删除。
6.1 WSL2 侧清理
# 停止并禁用 systemd 服务systemctl --user stop openclaw-gatewaysystemctl --user disable openclaw-gatewayrm ~/.config/systemd/user/openclaw-gateway.servicesystemctl --user daemon-reload# 卸载 npm 包npm uninstall -g openclaw# 删除所有数据目录rm -rf ~/.openclaw ~/.config/openclaw ~/.local/share/openclaw ~/.cache/openclaw# 验证which openclaw && echo "仍有残留" || echo "npm 包已清理"6.2 Windows 侧清理(PowerShell)
Remove-Item -Recurse -Force "$env:APPDATA\OpenClaw" -ErrorAction SilentlyContinueRemove-Item -Recurse -Force "$env:LOCALAPPDATA\OpenClaw" -ErrorAction SilentlyContinue七、经验总结
http://172.21.32.1:11434 | ||
ollama-local | ||
agents.defaults.model.primary |
本文首发于个人技术博客,转载需授权。相关工具版本:OpenClaw 2026.5.3-1 / Ollama 最新 / Ubuntu 24.04
夜雨聆风