不用写代码,不用懂技术,跟着截图点就行。
「OpenClaw 上手指南 · 第 2 篇」
上一篇我们聊了 OpenClaw 是什么、能干什么。今天开始动手——10 分钟,把这个 AI 员工请到你的 Mac 上。
我知道很多人看到"安装教程"就开始紧张。别怕,整个过程比你装一个微信还简单。
开始之前,确认两件事
① 你的 Mac 系统版本不能太老
点击左上角 → "关于本机",确认系统版本是 macOS 12(Monterey)或更新。
如果是 2019 年以后买的 Mac,基本都没问题。M1/M2/M3/M4 芯片全部支持。
② 确保有稳定的网络
安装过程需要下载大约 200MB 的文件。用 Wi-Fi 就行,不需要科学上网。
安装方式一:一行命令搞定(推荐)
打开 "终端" 应用。
不知道终端在哪?按
Command + 空格,输入"终端",回车就打开了。
然后复制粘贴这一行命令:
curl -fsSL https://openclaw.ai/install | bash 按回车。
接下来会出现一个安装向导,它会问你几个问题:
问题 1:"Install OpenClaw daemon?" → 输入 y,回车(意思是:安装后台服务,让 OpenClaw 开机自动运行)
问题 2:"Which AI provider?" → 选 claude(推荐新手选 Claude,效果最好)
问题 3:"Enter your API key" → 这一步先跳过也行,后面可以随时配置。按回车跳过。
等它跑完(大概 2-3 分钟),你会看到这行提示:
✅ OpenClaw installed successfully! 🌐 Dashboard: http://localhost:18789 恭喜,安装完了。
安装方式二:npm 手动安装
如果上面的一键命令遇到问题,也可以用 npm 安装。
先确认你有 Node.js(v18 以上)。在终端输入:
node --version 如果提示"command not found",先去 https://nodejs.org 下载安装 Node.js。
然后执行:
npm install -g openclaw@latest openclaw onboard --install-daemon 效果和方式一完全一样。
首次启动:打开你的 AI 控制台
安装完成后,打开浏览器,访问:
http://localhost:18789 你会看到 OpenClaw 的 Web 控制台。这就是你以后管理 AI 的大本营。
首次打开会有一个引导设置流程,跟着走就行:
Step 1:设置你的名字
给自己取个名字,OpenClaw 会用这个称呼你。随便填就好。
Step 2:选择 AI 模型
这是最关键的一步。推荐方案:
| Claude(推荐) | ||
| GPT-4/5 | ||
| DeepSeek | ||
| Ollama(本地) |
如果你是第一次用,选 Claude。 原因很简单:它的中文理解能力最强,执行任务最靠谱,出错率最低。
选好后,需要填入 API Key。
Step 3:获取 API Key(以 Claude 为例)
打开 https://console.anthropic.com 注册账号(用邮箱即可) 点击 "API Keys" → "Create Key" 复制生成的密钥 粘贴到 OpenClaw 的配置框里
💡 API Key 就像是 AI 模型的"门卡"。OpenClaw 拿着这个门卡去调用 Claude,你按实际用量付费。一般日常使用每月几美元。
Step 4:完成!
点击"保存",OpenClaw 会测试连接。看到绿色的 ✅ 就说明一切就绪。
验证安装:跟你的 AI 员工打个招呼
在控制台的对话框里输入:
你好,请自我介绍一下,并告诉我你能做什么 如果它回复了一段关于自己能力的介绍 —— 恭喜,你的 AI 员工正式上岗了!
再试一个实际任务:
帮我列出当前目录下的所有文件 如果它能列出文件列表,说明文件系统权限也配好了。
常见问题 Top 5
Q1:"终端报错 permission denied" → 在命令前加 sudo,比如 sudo npm install -g openclaw@latest,然后输入你的电脑密码。
Q2:"localhost:18789 打不开" → 在终端输入 openclaw gateway 手动启动,看有没有报错信息。
Q3:"连接 AI 模型失败" → 检查 API Key 是否正确粘贴(注意前后不要有空格),以及网络是否通畅。
Q4:"安装很慢,卡在下载" → 可以切换 npm 镜像源:npm config set registry https://registry.npmmirror.com
Q5:"我的 Mac 是 Intel 芯片,能用吗?" → 能,但如果想跑本地模型(Ollama),建议有独立显卡或至少 16GB 内存。仅使用云端 API(Claude/GPT)则不受限制。
下一步
安装搞定了,接下来你可能想做三件事:
- 连接聊天软件
— 让你用微信/QQ/飞书/企微 随时给 AI 发指令(第 4 篇会讲) - 学会基本操作
— 10 个最常用的命令和技巧(第 5 篇) - Windows 用户
— 别急,下一篇就是你的(第 3 篇)
📌 今日思考题:你选了哪个 AI 模型?是看重效果选了 Claude,还是看重隐私选了本地模型?评论区说说你的选择和理由。
如果这篇对你有启发,点个「在看」让更多人看到 👇
关注「数字生命哆啦汪」,每天一篇,看懂 AI。
夜雨聆风