从零开始,部署属于你自己的 AI 智能体
OpenClaw — 真正能做事的 AI
一、什么是 OpenClaw?
在 AI 技术飞速发展的今天,各类 AI 助手层出不穷,但大多数产品都是基于云端服务的 SaaS 模式,用户的数据必须上传到服务器进行处理。而 OpenClaw 则完全不同——它是一个免费、开源的自主 AI 代理(Autonomous AI Agent),完全部署在你自己的设备上,数据隐私完全由你自己掌控。它不仅仅是一个聊天机器人,更是一个能实际执行任务的“行动者”。
OpenClaw 的核心定位是“真正能做事的 AI”。它拥有“眼睛和手”,可以浏览网页、读取和写入文件、运行 Shell 命令、处理邮件、管理日历,甚至能控制智能家居。更重要的是,它可以通过你已有的聊天工具(如 WhatsApp、Telegram、Slack、飞书、钉钉、企业微信等 30 多个平台)与你交互,零学习成本接入。
目前,OpenClaw 在 GitHub 上已经收获了超过 310,000+ Stars,拥有活跃的社区和快速迭代的版本更新。它已经拥有专属的 Wikipedia 条目,并被 Docker 官方博客、DigitalOcean、freeCodeCamp 等众多技术媒体专题报道。无论是开发者想要自动化工作流,还是普通用户想要一个 7×24 小时的个人 AI 助理,OpenClaw 都是一个值得认真尝试的项目。
二、环境准备与系统要求
在开始安装 OpenClaw 之前,我们需要确保你的设备满足一些基本要求。OpenClaw 的设计理念是尽可能降低门槛,让更多人能够使用。由于 OpenClaw 本身不运行大模型推理,而是通过调用外部 API(如 Anthropic Claude、OpenAI GPT、本地模型等)实现 AI 能力,因此不需要 GPU。资源瓶颈主要来自 Gateway 进程的 Node.js 运行时。
2.1 软件要求
组件 | 要求 | 说明 |
Node.js | ≥ 22.14 | 严格要求,不支持 18 LTS 或 20 |
操作系统 | macOS / Linux / Windows | 推荐 WSL2,也支持原生 Windows |
包管理器 | npm | 随 Node.js 自带安装 |
Git | 建议安装 | 用于克隆代码仓库 |
Docker(可选) | Docker Engine | 用于容器化部署 |
2.2 硬件要求
配置级别 | CPU / 内存 | 适用场景 |
最低配置 | 2 核 / 2 GB RAM | 仅试用、体验基本功能 |
推荐配置 | 2 核 / 4 GB RAM | 日常使用,运行自动化任务 |
长期自动化 | 4 核 / 4-8 GB RAM | 长期运行、多 Agent 并发 |
Docker部署 | 至少 2 GB RAM | 容器化隔离部署 |
温馨提示 如果你还没有安装 Node.js,可以访问 https://nodejs.org 下载最新版本的 LTS 版本。安装完成后,在终端运行 node -v 和 npm -v 确认版本号符合要求。对于 Windows 用户,强烈建议使用 WSL2 以获得更好的兼容性。 |
三、方式一:一键安装(推荐)
对于大多数用户而言,一键安装是最简单、最快捷的方式。整个过程只需要两条命令,即可在几分钟内完成安装和基本配置。这种方式通过 npm 全局安装,会自动处理所有依赖关系,无需手动配置环境变量或其他复杂设置。
3.1 安装 OpenClaw
打开终端,输入以下命令进行全局安装:
# 全局安装 OpenClaw |
npm install -g openclaw@latest |
# 验证安装是否成功 |
openclaw -v |
安装完成后,运行 openclaw -v 应该能看到版本号信息。如果出现“command not found”的错误,请检查 Node.js 版本是否符合要求,或者重新打开终端窗口使环境变量生效。
3.2 启动配置向导
安装完成后,运行配置向导命令:
# 启动交互式配置向导 |
openclaw onboard |
openclaw onboard 会以交互式的方式引导你完成以下配置:设置 Gateway(网关)、配置工作区(Workspace)、选择 AI 模型提供商(支持 Anthropic Claude、OpenAI GPT、通义千问、MiniMax 等)、选择聊天渠道(Telegram、WhatsApp、飞书、Discord 等),以及配置 Skills(技能)。整个过程都是图形化、交互式的,即使是初学者也能轻松完成。
小贴士 如果你已经有 Anthropic 或 OpenAI 的 API Key,建议在配置向导中直接输入。如果还没有,也可以稍后通过配置文件添加。OpenClaw 还支持本地模型(通过 Ollama 等工具),完全可以在断网环境下使用。 |
四、方式二:Docker 容器化部署
对于希望在更安全、更可控的环境中运行 OpenClaw 的用户,Docker 容器化部署是理想的选择。Docker 提供了完全隔离的沙箱环境,无需在主机直接安装 Node.js,并且可以结合 Docker Model Runner 实现纯本地推理,无需任何 API Key。这种方式特别适合生产环境部署。
Docker 容器化部署示意图
4.1 使用 docker-compose 部署
首先,克隆官方仓库并启动服务:
# 克隆官方仓库 |
git clone https://github.com/openclaw/openclaw.git |
cd openclaw |
# 使用 docker-compose 启动(后台运行) |
docker compose up -d |
# 查看运行状态 |
docker compose ps |
# 查看日志 |
docker compose logs -f |
Docker Compose 会自动拉取镜像、配置网络并启动容器。启动后,你可以通过 docker compose logs -f 实时查看运行日志,确认服务是否正常启动。如果需要自定义配置,可以编辑项目根目录下的 .env 文件和 docker-compose.yml 文件。
4.2 Docker 部署的优势
优势 | 说明 |
完全隔离 | 运行在独立的沙箱环境中,不影响主机 |
无需 Node.js | 主机无需安装任何运行时依赖 |
可复现性 | 配置文件可版本控制,便于团队协作 |
纯本地推理 | 可结合 Docker Model Runner 实现无 API Key 运行 |
生产就绪 | 适合服务器和长期运行场景 |
五、后台服务与多平台支持
为了让 OpenClaw 能够 7×24 小时不间断地运行,我们需要将其配置为后台服务。不同操作系统的配置方式略有不同,以下分别介绍各平台的安装守护进程方法。
5.1 安装后台守护进程
平台 | 命令 | 说明 |
macOS | openclaw onboard --install-daemon | 安装 LaunchAgent,开机自启 |
Linux / WSL2 | openclaw gateway install | 安装 systemd 用户服务 |
Windows | 推荐使用 WSL2 | 原生 Windows 也有支持 |
5.2 多平台聊天渠道支持
OpenClaw 最引人注目的特性之一是其强大的多平台聊天渠道支持。它可以同时连接到超过 30 个平台,包括但不限于 WhatsApp、Telegram、Slack、Discord、IRC、飞书、钉钉、企业微信等。这意味着你可以在任何你已经在使用的聊天工具中直接与 AI 助理交互,零学习成本。无论你是在团队协作工具中,还是在私人聊天应用中,都能无缝对接。
多平台聊天渠道连接示意图
六、常见问题与解决方案
在安装和使用 OpenClaw 的过程中,你可能会遇到一些常见问题。以下我们整理了几个最常见的问题及其解决方案,帮助你快速排查和解决。
Q1:安装后运行 openclaw 提示“command not found”
这通常是因为 npm 全局安装路径未被加入系统 PATH 环境变量。解决方法是关闭并重新打开终端窗口,或手动将 npm 全局安装目录(通常为 /usr/local/bin 或 AppData\Roaming\npm)添加到 PATH 中。你可以运行 npm config get prefix 查看安装路径。
Q2:提示 Node.js 版本过低
OpenClaw 严格要求 Node.js 版本不低于 22.14。如果你的版本是 18 LTS 或 20,需要升级到最新版本。建议使用 nvm(Node Version Manager)进行版本管理,可以轻松切换不同的 Node.js 版本而不影响系统环境。安装 nvm 后,运行 nvm install 22 即可安装最新的 Node.js 22 版本。
Q3:Docker 构建镜像时内存不足
Docker 构建镜像时需要至少 2 GB 的可用内存。如果内存不足,可以尝试关闭其他不必要的容器或服务来释放内存,或者增加 Docker 的内存限制。在 Docker Desktop 的 Settings 中可以调整内存分配。
Q4:AI 模型接口调用失败
如果使用外部 AI API(如 Claude、GPT),请确保 API Key 正确配置且未过期。同时检查网络连接是否正常。如果使用本地模型(如 Ollama),确保 Ollama 服务已启动且模型已下载。可以运行 ollama list 查看已安装的模型列表。
七、总结与展望
通过本文的介绍,相信你已经对 OpenClaw 的安装部署有了全面的了解。无论你选择哪种安装方式,整个过程都是非常简单和直观的。OpenClaw 的核心价值在于:
第一,完全本地部署,数据隐私有充分保障。所有数据都在你自己的设备上处理,不会被上传到任何第三方服务器。第二,连接现有聊天工具,零学习成本接入。你不需要学习新的应用,只需要在你已经熟悉的工具中直接与 AI 助理对话。第三,可扩展的技能系统,支持自定义能力。你可以根据自己的需求开发和安装各种插件,让 AI 助理拥有更多能力。第四,极低的硬件门槛,2GB 内存即可运行。即使是配置较低的设备也能流畅运行。
如果你对 OpenClaw 感兴趣,不妨现在就动手尝试。你可以访问 OpenClaw 官方文档(docs.openclaw.ai)获取更详细的使用指南和 API 参考,也可以关注 GitHub 仓库获取最新动态。社区中也有大量的教程和实战项目等待你去探索。让我们一起拥抱 AI 代理的未来!
参考资源
• GitHub 仓库:github.com/openclaw/openclaw
• 官方文档:docs.openclaw.ai
• Docker 官方博客:docker.com/blog/run-openclaw-securely-in-docker-sandboxes
• freeCodeCamp 入门教程:freecodecamp.org/news/openclaw-full-tutorial-for-beginners
夜雨聆风