WSL2 环境完整配置指南
本教程基于实际操作经验,总结了在 Windows 10/11 WSL2 环境中部署 OpenClaw 并配置使用 DeepSeek API 的完整步骤。
注意:DeepSeek 的 API 接口与 OpenAI 兼容,因此我们可以利用 OpenClaw 的 OpenAI 兼容模式来调用 DeepSeek。
1. 环境准备
1安装 WSL2 和 Ubuntu
以管理员身份打开 PowerShell,执行:
wsl --install重启电脑后,从开始菜单启动 Ubuntu,创建用户名和密码。
2更新系统并安装基础工具
sudo apt update && sudo apt upgrade -ysudo apt install -y curl git3安装 Node.js(使用 nvm)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bashsource ~/.bashrcnvm install 22node --version # 应显示 v22.x.x2. 安装 OpenClaw
使用官方脚本安装:
curl -fsSL https://openclaw.ai/install.sh | bash安装完成后,执行 openclaw --version 验证。
3. 配置 DeepSeek API 环境变量
OpenAI 兼容模式
DeepSeek 的 API 接口兼容 OpenAI,因此我们使用 OPENAI_API_KEY 和 OPENAI_BASE_URL 来指定。
在 Ubuntu 终端中执行(将 sk-xxxx 替换为你的真实 DeepSeek API Key):
export OPENAI_API_KEY="sk-xxxx"export OPENAI_BASE_URL="https://api.deepseek.com/v1"export OPENAI_MODEL="deepseek-chat"为了使这些变量永久生效,可以追加到 ~/.bashrc:
echo 'export OPENAI_API_KEY="sk-xxxx"' >> ~/.bashrcecho 'export OPENAI_BASE_URL="https://api.deepseek.com/v1"' >> ~/.bashrcecho 'export OPENAI_MODEL="deepseek-chat"' >> ~/.bashrcsource ~/.bashrc4. 配置 OpenClaw
1设置网关模式
openclaw config set gateway.mode local2配置模型(关键步骤)
核心技巧:由于 OpenClaw 默认不支持 DeepSeek 的 API 端点,我们采用"借壳"方式:将模型名设置为一个 OpenAI 已知的模型(如 gpt-4o-mini),然后通过环境变量将实际请求重定向到 DeepSeek。
openclaw config set agents.defaults.model.primary "openai/gpt-4o-mini"openclaw config set agents.defaults.model.fallbacks "[]"原理:OpenClaw 会使用 OPENAI_API_KEY 和 OPENAI_BASE_URL 来调用 OpenAI 兼容 API,而模型名 gpt-4o-mini 在 DeepSeek 端会被忽略,实际调用的是你在环境变量中指定的 OPENAI_MODEL(即 deepseek-chat)。这样就绕过了 OpenClaw 对模型名的严格校验。
5. 启动网关
1前台启动(测试)
openclaw gateway启动成功后,你应该看到类似输出:
[gateway] agent model: openai/gpt-4o-mini[gateway] listening on ws://127.0.0.1:187892访问 Web UI
打开浏览器,访问 http://127.0.0.1:18789,输入消息测试。如果配置正确,你应该能收到 DeepSeek 的回复。
6. 后台运行(使用 pm2)
如果前台运行正常,可以将其转为后台服务。
1安装 pm2
npm install -g pm22启动网关
pm2 start openclaw -- gatewaypm2 save3(可选)设置开机自启
pm2 startup根据提示执行生成的命令(可能需要 sudo)。注意:如果你的 WSL 版本较旧(不支持 systemd),此步可能失败,但可以手动启动 pm2。
4常用 pm2 命令
pm2 list | |
pm2 logs openclaw | |
pm2 stop openclaw | |
pm2 restart openclaw |
7. 常见问题与解决
7.1 启动时报错 Unknown model: openai/gpt-4o-mini
确保环境变量 OPENAI_API_KEY和OPENAI_BASE_URL已正确设置。检查配置文件: openclaw config get agents.defaults.model应显示"primary": "openai/gpt-4o-mini"。如果仍报错,尝试重启网关: openclaw gateway stop后再启动。
7.2 请求超时(LLM request timed out)
确认 DeepSeek API 能正常访问:执行 curl https://api.deepseek.com/v1/chat/completions(需带 Key)测试。如果 curl 成功而 OpenClaw 超时,可能是因为 OpenClaw 发送了 DeepSeek 不支持的参数(如 tools)。目前尚无直接禁用办法,但使用gpt-4o-mini作为模型名可以规避部分问题。也可以尝试降低超时设置(但需确认配置项, gateway.timeout可能无效)。
7.3 WSL2 中 systemd 未启用
不影响 OpenClaw 运行。如需启用,需升级 WSL 至较新版本(Windows 11 或 Windows 10 22H2+),或使用 pm2 管理进程。
7.4 端口 18789 被占用
openclaw gateway stop # 停止服务lsof -i :18789 # 查看占用进程sudo kill -9 <PID> # 强制结束(如有必要)8. 总结
通过上述步骤,你可以在 WSL2 中成功部署 OpenClaw,并使用 DeepSeek API 作为后端模型。
核心技巧:利用 OpenAI 兼容接口和环境变量重定向,将 OpenClaw 的请求转发到 DeepSeek。虽然官方未直接支持 DeepSeek,但这种方法稳定可靠,且无需修改 OpenClaw 源代码。
如果你在使用过程中遇到其他问题,欢迎查阅 OpenClaw 官方文档或社区讨论。
关于作者
艺设·集美,策展与博物馆研究领域的实践者与观察者。专注于展览设计、数字博物馆、观众体验与文化传播的交叉研究。关注策展与技术的融合,致力于在理论与实务之间寻找平衡。每周更新策展干货、AI工具实操和数字文化观察等内容。
夜雨聆风