最近AI圈有个东西特别火——OpenClaw。
相信大部分人都听说过,也有很多人已经在用了。但对于没有技术背景的人来说,想用它却有点难——大概率卡在第一步:安装。
所以,今天这篇避坑版安装指南 ,保证你看完就能装好,哪怕你是第一次碰技术的小白;再按照文中的配置流程操作,相信你也很快有一只自己的"龙虾"了。
一、什么是OpenClaw?先搞懂再动手
在正式安装之前,先简单科普一下这个“龙虾”,省得后面晕头转向。
OpenClaw本质上是一个AI网关,它帮你把AI能力接到日常用的聊天软件里。
它能干啥?
- 在QQ/Telegram里和AI直接聊天,就像有个私人助手
- 早上起床问一句"昨天邮件处理得怎么样",它帮你总结
- 说一声"帮我每周五整理本周的浏览记录",它自动定时执行
- 用久了之后,它记得你的习惯,下次不用重复交代
核心优势:
✅全平台接入 ✅ 智能定时任务 ✅ 长期记忆进化 ✅ skills 加持,打造专属“数字员工”
三个核心概念:
- Gateway:网关,你控制AI助手的远程后台
- Onboard:入职,相当于"启动"智能助手
- Channels:渠道,接入的聊天软件(QQ、Telegram、飞书等)
二、为什么这篇只讲Windows?
在开始之前,先回答一个问题:为什么不讲Mac/Linux?
原因很简单:
大多数人电脑用的就是Windows。对初次接触的人来说,会为了装一个工具,专门去重装系统吗?更重要的是,Windows上养龙虾,要踩坑是最多的,最需要避坑。
如果你已经在用Linux/Mac,那大概率已经是技术玩家了,养龙虾对你来说早就不在话下,也不用看这篇教程了
。
所以这篇就专注于Windows用户,帮助大家最快,最省事的方法在自己的主力系统上把OpenClaw跑起来,体验一下。
三、安装前必看!这些准备工作不做等于白装
正式开始安装前,有几件事必须先做好,否则分分钟踩坑。
1. 必须安装的工具
如果你的Windows只是用来办公,刷刷剧,大概率是没有下面的这三个工具的,所以用户需要提前下载并安装上这三个工具:
| Node.js | ||
| Git | ||
| VC++运行时库 |
避坑提示:Node.js建议选22版本,下载时选"LTS"长期支持版。
2. 网络环境
这可能是最容易被忽略的一点:
Telegram等软件需要国际网络 调用ChatGPT模型也需要良好的网络环境
建议:提前准备好稳定的国际网络代理。
四、Windows安装步骤:两种方法任选
好了,准备工作做完,正式进入安装环节。
第一步:设置PowerShell权限
Windows用户先不要急着安装,按下面步骤来,否则安装过程中脚本可能会闪退。
打开PowerShell(右击开始菜单,选"Windows PowerShell(管理员)"),依次执行:
# 1. 设置执行策略Set-ExecutionPolicy RemoteSigned -Scope CurrentUser# 2. 绕过执行策略Set-ExecutionPolicy-ScopeProcess-ExecutionPolicy Bypass第二步:执行安装
在PowerShell中执行:
powershell -c"irm https://openclaw.ai/install.ps1 | iex"如果卡住了,按Ctrl+C终止,然后重试一次。
避坑提示:
安装过程会有很多红色警告,别慌,只要不是致命错误就问题不大 耐心等待,出现"success"或者完成提示才算成功
如果你上面的安装失败,大概率是一个叫llama东东装不上,这个其实可以跳过,可以改用这个方法,更快更精简。
第二步:执行安装(改)
# 1. 跳过 llama 的安装$env:NODE_LLAMA_CPP_SKIP_DOWNLOAD="true"# 2. 强制安装并忽略报错的后续脚本npm install -g openclaw@latest --ignore-scripts⚠️ 安装过程会出现若干警告,不必担心,耐心等待安装完成。
第三步:验证安装
装好了?验证一下:
openclaw help如果弹出帮助信息,说明安装成功。
五、配置流程:入职操作
装好了不算完,还得"入职"才能用。
启动入职流程
openclaw onboard这里选择"Quick Start"快速配置,按照指引一步一步来,省时省力,主要关注的有两点:一是模型的配置;一是接入平台(channel)的配置。
如果你有能力的话,完全可以通过修改配置文件的方式进行配置,配置文件在哪?
%USERPROFILE%\.openclaw\openclaw.json六、模型配置
最关键的一步来了——让你的AI能回答问题。
使用Nvidia NIM免费模型
不需要花冤枉钱,Nvidia提供免费API Key!
访问 https://build.nvidia.com/ 注册账号 获取免费API Key
配置示例(把下面的内容复制到配置文件里):
{"agents":{"defaults":{"model":{"primary":"nvidia/stepfun-ai/step-3.5-flash","fallbacks":["nvidia/moonshotai/kimi-k2.5"]}}},"gateway":{"port":18789,"bind":"loopback","auth":{"mode":"token","token":"你自定义的token"}},"models":{"mode":"merge","providers":{"nvidia":{"baseUrl":"https://integrate.api.nvidia.com/v1","apiKey":"你申请的nvapi-key","api":"openai-completions","models":[{"id":"stepfun-ai/step-3.5-flash","name":"stepfun-ai/step-3.5-flash","reasoning":true,"input":["text"],"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"contextWindow":128000,"maxTokens":8192}]}}}}避坑提示:保存配置文件时,务必保留Gateway部分的token,否则你会连不上自己的AI。
七、接入平台:QQ/飞书
到这一步,你的AI已经能"说话"了。现在需要把它接到聊天软件里。
接入QQ
去QQ官方创建机器人QQBot 登录你的QQ账号 按照页面提示创建QQ机器人 获取对接参数和一键对接命令 执行对接命令
飞书稍微复杂一点,按步骤来也能搞定:
第一步:安装插件
openclaw plugins enable feishu验证状态:
openclaw plugins listdisabled= 禁用 loaded= 启用
第二步:创建飞书应用
打开 飞书开放平台 点击「创建企业自建应用」 填写应用名称(如"我的OpenClaw AI")、描述、图标 保存App ID和App Secret
第三步:配置Channel
openclaw channels add按提示选择:
选择 "Feishu/Lark (飞书)" 输入 App Secret 和 App ID 连接模式选国内域名 群聊策略选 Open
第四步:开启机器人能力
飞书应用界面 → 添加应用能力 → 机器人 点击「添加」开启机器人能力
第五步:配置权限
权限管理 → 批量导入/导出权限,粘贴JSON(详见原文)。
第六步:配置事件订阅
事件与回调 → 事件配置,添加:
im.message.receive_v1- 接收消息 im.message.message_read_v1- 消息已读回执 im.chat.member.bot.added_v1- 机器人进群 im.chat.member.bot.deleted_v1- 机器人被移出群
第七步:发布应用
版本管理与发布 → 创建版本 → 提交审核 → 发布
八、启动与测试
所有配置完成,启动服务:
openclaw gateway或指定端口:
openclaw gateway --port 18789测试一下:
在对应平台建个测试群 把机器人拉进群 @它让自我介绍,能正常回复就算跑通了!
九、写在最后
OK,以上就是OpenClaw的避坑安装指南。
这篇主要讲Windows平台的安装,其他平台(Mac、Linux)的思路差不多,安装命令稍微有点区别。如果有需要,后面再单独出。
安装过程中遇到任何问题,随时来问。
📎 工具下载汇总
Node.js: https://nodejs.org/zh-cn/download
Git: https://git-scm.com/download/win 或 https://gitforwindows.org/
VC++运行时库: https://learn.microsoft.com/zh-cn/cpp/windows/latest-supported-vc-redist?view=msvc-170
夜雨聆风