乐于分享
好东西不私藏

个人电脑如何部署OpenClaw

个人电脑如何部署OpenClaw

在个人电脑部署 OpenClaw,核心是先装 Node.js ≥ 22,再用一键脚本安装并配置 AI API Key,最后启动服务即可在本地使用。下面是 Windows、macOS、Linux 全平台详细步骤。

一、部署前准备
1. 系统与硬件要求
操作系统:Windows 10/11、macOS 10.15+、Ubuntu 20.04+ 等主流 Linux 发行版
内存:最低 2GB,推荐 4GB+(启用浏览器自动化 / 本地模型需 8GB+)
存储:至少 500MB 可用空间
必备软件:Node.js ≥ 22.x(LTS 推荐)、Git(可选,用于源码安装)
2. 安装 Node.js(必做)
官网下载:https://nodejs.org/zh-cn/
安装后验证版本:
bash
运行
node --version  # 输出 v22.x.x 即合格
npm --version
3. 准备 AI API Key(必选)
OpenClaw 需对接大模型 API,准备以下任一密钥:
OpenAI(GPT-3.5/4o)
Anthropic(Claude 3)
国内模型(通义千问、DeepSeek 等)

二、全平台一键安装(推荐)
Windows(PowerShell,管理员)
以管理员身份打开 PowerShell
执行脚本(官方 / 国内镜像二选一):
powershell
# 官方脚本
iwr -useb https://openclaw.ai/install.ps1 | iex
# 国内加速镜像(网络慢时用)
iwr -useb https://open-claw.org.cn/install-cn.ps1 | iex
脚本自动检测并安装 Node.js、OpenClaw 及依赖
macOS / Linux / WSL2
打开终端执行:
bash
运行
# 官方脚本
curl -fsSL https://openclaw.ai/install.sh | bash
# 国内加速镜像
curl -fsSL https://open-claw.org.cn/install-cn.sh | bash
验证安装
bash
运行
openclaw --version  # 输出版本号即成功
openclaw --help     # 查看命令帮助

三、初始化与配置(关键步骤)
安装完成后,运行配置向导:
bash
运行
openclaw onboard --install-daemon
按提示完成:
选择 QuickStart(快速开始)
输入你的 AI API Key(如 OpenAI、Claude)
选择接入方式:Web 控制台(默认)、微信 / Telegram 机器人等
选择是否安装为后台守护进程(开机自启)

四、启动与使用
1. 启动服务
bash
运行
openclaw start
看到 服务已启动 提示即成功。
2. 访问 Web 控制台
浏览器打开:
plaintext
http://localhost:3000
即可在本地网页端使用 OpenClaw 执行 AI 指令。
3. 常用命令
bash
运行
openclaw stop       # 停止服务
openclaw restart    # 重启服务
openclaw logs       # 查看运行日志

五、其他安装方式(进阶)
1. npm 手动安装(适合熟悉 Node.js)
bash
运行
# 全局安装
npm install -g openclaw@latest
# 或用 pnpm(更快)
pnpm add -g openclaw@latest
# 启动配置向导
openclaw onboard
2. Docker 部署(环境隔离)
bash
运行
# 拉取镜像
docker pull openclaw/openclaw
# 运行容器
docker run -d -p 3000:3000 -e OPENAI_API_KEY=你的密钥 openclaw/openclaw

六、常见问题与避坑
Node.js 版本过低:必须 ≥ 22.x,用 nvm 管理版本
Windows 原生兼容性差:强烈建议用 WSL2 部署
API Key 无效:检查密钥正确性与模型权限
端口 3000 被占用:修改配置文件或关闭占用程序
国内网络慢:优先使用国内镜像脚本


七、Windows WSL2 部署(推荐)
启用 WSL2:管理员 PowerShell 执行
powershell
wsl --install
重启电脑,安装 Ubuntu 发行版
在 WSL2 终端执行 macOS/Linux 一键脚本即可


八、本地模型(Ollama)离线使用
如需离线运行,可对接本地 Ollama 模型:
安装 Ollama:https://ollama.com/
拉取模型(如 Llama 3):ollama pull llama3
OpenClaw 配置向导选择 本地 Ollama 即可离线使用