OpenClaw(昵称“小龙虾”)是2026年初爆火的一款开源AI智能体(AI Agent),由奥地利程序员彼得·斯坦伯格开发 。它并非又一个聊天机器人,而是一个能“动手干活”的数字助理 。
OpenClaw最新部署下载方法详细教程如下:
https://pan.quark.cn/s/9b293dad2d5a

OpenClaw本身是一个强大的AI智能体框架,但它的“大脑”(大模型推理能力)需要额外配置。目前主流的本地部署方案是将OpenClaw与Ollama结合,实现完全本地、免费、私有的AI运行环境。下面以最主流的Windows 11系统为例,为你提供一份保姆级教程,同时附上macOS和Linux的快速指南。
⚙️ 部署前的准备
在开始之前,请确保你的电脑满足以下最低要求,这决定了你能流畅运行多大的模型:
| 操作系统 | ||
| 处理器 (CPU) | ||
| 内存 (RAM) | ||
| 显卡 (GPU) | NVIDIA显卡,显存 ≥4GB | NVIDIA显卡,显存 ≥8GB |
| 磁盘空间 | ||
| 核心软件 |
注意:无NVIDIA显卡也可仅用CPU运行,但推理速度会明显变慢。
🪟 Windows 11 本地部署保姆级教程 (OpenClaw + Ollama)
第一步:安装核心依赖
安装Node.js:访问 Node.js官网,下载并安装LTS版本。安装时务必勾选“Add to PATH”,这会将Node.js自动添加到环境变量中。 以管理员身份打开PowerShell:右键点击开始菜单或任务栏的Windows PowerShell图标,选择“以管理员身份运行”。后续所有命令都需在此窗口中执行。 验证Node.js安装:在PowerShell中输入以下命令,若能正确显示版本号(如v22.x.x),则说明安装成功。 node --versionnpm --version
第二步:安装并配置Ollama(AI大脑)
安装Ollama:访问 Ollama官网,下载Windows版本并默认安装。安装后Ollama会自动在后台运行。 拉取大模型:在PowerShell中执行以下命令,下载一个性能和硬件要求较为平衡的模型(例如千问7B版,大小约4.7GB)。根据你的网络速度,这一步可能需要等待几分钟到十几分钟。 ollama pull qwen2.5:7b【核心步骤】扩展模型上下文窗口:OpenClaw要求模型的上下文窗口至少为16000 tokens,而默认拉取的模型仅为4096。我们需要创建一个上下文窗口更大的定制模型。 首先,切换到你的用户目录(请将 <你的用户名>替换为实际用户名,例如C:\Users\Administrator):cd C:\Users\<你的用户名>然后,执行以下命令,创建一个名为 Modelfile的配置文件,并指定上下文窗口为32768:@"FROM qwen2.5:7bPARAMETER num_ctx 32768"@ | Out-File -Encoding ascii Modelfile最后,基于这个配置文件创建我们自己的定制模型(命名为 qwen2.5:7b-32k):ollama create qwen2.5:7b-32k -f Modelfile
第三步:安装并配置OpenClaw
安装OpenClaw:在PowerShell中执行全局安装命令。 npm install -g openclaw启动配置向导: openclaw onboard按提示完成配置:这是最关键的一步,请根据下表的指引进行选择和输入: 提示问题 你的操作/输入 说明 Model/auth provider选择 Custom Provider我们要对接本地Ollama。 API Base URL输入 http://127.0.0.1:11434/v1这是Ollama默认的API地址。 API Key输入任意字符,如 ollama本地部署无需真实密钥,但不能留空。 Endpoint compatibility选择 OpenAI-compatibleOllama兼容OpenAI的API格式。 Model ID输入 qwen2.5:7b-32k填入我们刚才创建的定制模型名称。 后续关于Skills、Hooks等 全部选择 Skip for now或No新手可先跳过,以后再按需安装。 配置成功后,你会看到“Verification successful”的提示,并记录下显示的Web UI地址 ( http://127.0.0.1:18789) 和管理员Token。
第四步:启动与验证
启动OpenClaw服务: openclaw start访问Web界面:打开浏览器,访问你在上一步记录的地址 http://127.0.0.1:18789。如果提示需要Token,输入你记录的那个长串字符即可登录。【避坑指南】解决“上下文窗口过小”错误 如果你在启动后遇到“Model context window too small”的报错,说明OpenClaw没有正确读取到我们定制模型的配置。需要手动修改一下配置文件: 打开文件: C:\Users\<你的用户名>\.openclaw\openclaw.json在文件中找到关于模型的部分,确保包含以下内容: "models": {"custom": {"qwen2.5:7b-32k": {"context_length": 32768 } }}保存文件后,在PowerShell中执行 openclaw restart重启服务即可。
🍏 macOS & 🐧 Linux 快速部署指南
对于macOS (12+) 和 Linux (Ubuntu 20.04+) 用户,流程与Windows基本一致,主要区别在于环境准备:
安装依赖: macOS:使用Homebrew安装Node.js 22。 brew install node@22**Linux (Ubuntu)**:使用apt安装Node.js 22和Git。 curl -fsSL https://deb.nodesource.com/setup_22.x | sudo bashsudo apt install -y nodejs git安装Ollama:同样访问 Ollama官网 下载对应macOS或Linux版本进行安装。后续的模型拉取、定制以及OpenClaw的安装配置步骤,与Windows下完全一致,只需将PowerShell命令换成在终端里执行即可。
🛠️ 扩展你的“小龙虾”:安装技能 (Skills)
部署完成后,你的OpenClaw已经具备基本的对话和任务处理能力。通过安装各种“技能”,可以让它变得更强大。例如,你可以使用以下命令来管理技能:
# 列出所有可用的技能openclaw skills list# 安装一个特定的技能,例如联网搜索技能openclaw skills install search-web现在,你的OpenClaw已经成功地在本地部署并运行起来了。开始尝试给它下达一些指令吧,比如“帮我整理桌面上的文件”或“总结一下这个PDF文档的内容”,体验一下你的专属“AI数字员工”带来的效率提升。如果在配置过程中遇到问题,欢迎随时再来问我。
夜雨聆风