乐于分享
好东西不私藏

Openclaw中文版(openclaw-cn)本地部署手把手教程

Openclaw中文版(openclaw-cn)本地部署手把手教程

一、安装环境

(一)安装Node.js

1、下载Node.js

打开浏览器,访问 Node.js 官方网站:https://nodejs.org/zh-cn

下载后,按照windowsl软件安装的路径依据执行,务必勾选“Automatically install the necessary tools”(自动安装必要工具),然后一路“Next”完成安装。这会自动配置好Python、Visual Studio Build Tools等依赖。
2、验证是否安装成功

安装完成后,打开开始菜单,如下图用管理员权限打开power shell窗口

输入如下命令:

node -v 回车后会出现node的版本,提示安装成功;

输入:npm -v 加车后会出现npm的版本。

(二)安装Git

1. 下载安装包

访问官方下载页面:https://git-scm.com/download/win

2. 安装步骤

双击下载的 .exe 文件,按向导安装:

步骤
建议选项
组件选择
保持默认(确保勾选”Git Bash Here”和”Git GUI Here”)
编辑器选择
选择您常用的编辑器(如 VS Code 或 Vim)
调整 PATH
推荐选择”Git from the command line and also from 3rd-party software”
HTTPS 后端
使用 OpenSSL 库
行尾转换
推荐选择”Checkout Windows-style, commit Unix-style line endings”
终端模拟器
使用 MinTTY(默认)

3. 验证安装

打开新的 CMD 或 PowerShell 窗口:

git --version

显示类似 git version 2.43.0.windows.1 即安装成功。

二、安装openclaw

(一)全局安装方法

1、修改国内镜像地址

在管理员PowerShell中,输入以下命令:

npm config set registry https://registry.npmmirror.com

并回车,将npm包的下载源改为国内镜像,能大大提升安装速度;

2、安装openclaw

然后在同一个窗口中,输入以下命令:

openclaw

npm install -g openclaw@latest

openclaw-cn

npm install -g openclaw-cn@latest

并回车,开始全局安装OpenClaw,

然后看到类似于 + openclaw@版本号 的提示即表示安装成功。

(二)windows一键安装法

1、Windows本地部署

核心方案对比

方案
优势
适用场景
WSL2+Ubuntu
完整Linux环境支持
开发测试、生产环境
PowerShell原生
纯Windows操作
轻量级使用
(1)PowerShell原生

用管理员权限打开power shell窗口

1)安装openclaw

openclaw

iwr -useb https://openclaw.ai/install.ps1 | iex

openclaw-cn

iwr -useb https://open-claw.org.cn/install-cn.ps1| iex

(2)WSL2+Ubuntu环境下安装

1)安装wsl2
在power shell命令行下输入
wsl --install
由于本机已经安装了wsl2,所以不需要再安装,若未安装,则会安装ubuntu系统。若在已经安装的机器中运行wsl系统有问题,可以执行wsl –update命令,更新wsl
wsl --update

安装好wsl环境,在命令行中输入wsl
2)安装openclaw

openclaw

curl -fsSL https://openclaw.ai/install.sh | bash

openclaw-cn

curl -fsSL https://clawd.org.cn/install.sh | bash

三、配置 OpenClaw 连接本地 Ollama + DeepSeek

(一)Ollama+Deepseek安装

见“DeepSeek本地化部署喂饭级教程”文章

(二)openclaw启动配置向导配置本地模型

openclaw onboard --install-daemon

相关配置按提示选择:

提示
选择
Install as daemon?
y
Onboarding mode
QuickStart
Choose model provider
Custom Provider

(即 OpenAI 兼容接口)
API base URL
http://127.0.0.1:11434/v1

(Ollama 默认地址)
API key
ollama-local

(任意字符串即可)
Endpoint compatibility
OpenAI-compatible
Model ID
deepseek-r1:7b

(与你 pull 的模型一致)
Model alias
deepseek-local

(自定义名称)
Install QuickStart skills?
N

(后续可手动安装)
Configure hooks?
N
Hatch your bot
Open the Web UI

完成后,浏览器将自动打开:http://localhost:18789

(三)修改openclaw.json配置

openclaw.json主配置文件位置

Windows路径:

C:\Users\<用户名>\.openclaw\openclaw.json

Linux/macOS路径:

~/.openclaw/openclaw.json

Agent模型配置文件

~/.openclaw/agents/main/agent/models.json

修改配置文件

{  "models": {    "mode": "merge",    "providers": {      "custom-127-0-0-1-11434": {        "baseUrl": "http://127.0.0.1:11434/v1",        "apiKey": "ollama",        "api": "openai-completions",        "injectNumCtxForOpenAICompat": true,        "models": [          {            "id": "qwen2.5:7b-32k",            "name": "qwen2.5:7b-32k",            "reasoning": false,            "input": ["text"],            "cost": {              "input": 0,              "output": 0,              "cacheRead": 0,              "cacheWrite": 0            },            "contextWindow": 32768,            "maxTokens": 32768          }        ]      }    }  }}

(四)ollama token不足解决方案

按照上述配置ollama本地算力模型,Agent会报错

解决OpenClaw本地部署时”Model context window too small (4096 tokens). Minimum is 16000″错误的完整方案如下:

1、问题原因

OpenClaw 在启动时会读取本地模型(如Ollama或LM Studio)的元数据,但默认情况下对于”不认识”的本地模型会将其上下文窗口限制为4096 tokens。即使您已在Ollama中设置了更大的上下文窗口(如32768),OpenClaw仍会缓存并使用4096这个默认值。

2、解决方案

方法一:使用命令行快速配置

如果您使用的是OpenClaw 2026.3.x版本,可以直接使用命令行设置:

# 设置默认上下文窗口

openclaw config set models.default.contextWindow 16000

# 设置最大tokens

openclaw config set models.default.maxTokens 16000

# 重启网关生效

openclaw gateway restart

注意:根据您的模型实际能力,建议设置为 32768 或更高(如128000),而不是刚好16000。

方法二:手动修改配置文件(更灵活)

(1)修改openclaw.json配置文件

找到 models.providers 下您的本地模型配置(如 custom-127-0-0-1-11434 或 ollama),将 contextWindow 和 maxTokens 从 4096 改为 32768 或更高:

{  "models": {    "mode": "merge",    "providers": {      "custom-127-0-0-1-11434": {        "baseUrl": "http://127.0.0.1:11434/v1",        "apiKey": "ollama",        "api": "openai-completions",        "injectNumCtxForOpenAICompat": true,        "models": [          {            "id": "qwen2.5:7b-32k",            "name": "qwen2.5:7b-32k",            "reasoning": false,            "input": ["text"],            "cost": {              "input": 0,              "output": 0,              "cacheRead": 0,              "cacheWrite": 0            },            "contextWindow": 32768,            "maxTokens": 32768          }        ]      }    }  }}

关键参数说明

  • contextWindow: 32768(或根据模型实际能力设置,如128000)

  • maxTokens: 32768(模型一次生成的最大token数)

  • injectNumCtxForOpenAICompat: true(重要:确保Ollama使用正确的上下文窗口而非默认4096)

(2)针对Ollama的特殊配置

如果您使用Ollama作为后端,还需要确保Ollama本身配置了正确的上下文窗口:

1)创建自定义Modelfile

# 进入您的工作目录cd C:\Users\Administrator# 创建 Modelfile(注意:指令必须小写)@"from qwen2.5:7bparameter num_ctx 32768parameter temperature 0.7"@ | Out-File -FilePath "Modelfile" -Encoding utf8

这是将 PowerShell 的 Here-String 语法,我不会用,所以改为使用 echo 命令逐行创建文件的方式。

2)CMD 逐行命令(Windows)

echo from qwen2.5:7b > Modelfileecho. >> Modelfileecho parameter num_ctx 32768 >> Modelfileecho parameter temperature 0.7 >> Modelfile

生成新模型

ollama create qwen2.5:7b-32k -f Modelfile

验证 ollama list

然后在OpenClaw配置中使用 qwen2.5:7b-32k 作为模型ID 。

修改后重启

必须完全退出OpenClaw后重新启动

停止当前运行的OpenClaw(Ctrl+C终止终端进程)

(3)重新对接Ollama(关键配置)

初始化时按提示选择:

1. Model provider:选 Custom Provider(列表最后)

2. API Base URL: http://127.0.0.1:11434/v1 

3. API Key:填任意字符串(如 ollama ,Ollama无需真实Key)

4. Model name: qwen2.5:7b-32k (你定制的模型名)

5. 完成后重启OpenClaw(必做)

重启后,建议输入 /status 查看当前上下文限制是否已更新 。


验证是否解决

  1. 启动OpenClaw TUI:openclaw tui

  2. 输入 /status 查看上下文窗口大小

  3. 尝试进行对话,确认不再出现”Model context window too small”错误

如果仍然报错,请检查:

  • 两个配置文件是否都已修改并保存

  • 模型ID是否与Ollama中运行的模型完全一致

  • injectNumCtxForOpenAICompat 是否设置为 true(Ollama必需)