乐于分享
好东西不私藏

阿里云服务器一键部署 OpenClaw:把 AI 助手搬上云,30 分钟搞定

阿里云服务器一键部署 OpenClaw:把 AI 助手搬上云,30 分钟搞定

上周我做了一个决定——把我本地的 OpenClaw AI 助手迁移到阿里云服务器上。原因很简单:本地电脑不可能 24 小时开机,但挂在云上的服务可以。消息来了随时能回,定时任务到点就跑,再也不用担心我关机的时候错过什么重要的事情。

折腾了一个下午,从零开始到全部跑通。说实话,中间踩了不少坑,但最终跑起来的那一刻——看着终端里 Gateway 成功启动的日志,飞书消息一条一条正常收发——那种成就感,真的爽。

今天我就把整个部署过程完整记录下来,从选购服务器到配置环境,从安装 OpenClaw 到对接飞书,一步步写清楚。如果你也想把自己的 AI 助手搬上云,照着做就行。


一、服务器选购:选对配置,少走弯路

阿里云的服务器产品线很杂——ECS、轻量应用服务器、突发性能实例……选哪个?

我的建议很直接:个人用,选轻量应用服务器就够了。

轻量应用服务器有什么好?简单、便宜、够用。我选的配置是:

  • 规格:2 核 2GB
  • 系统:Ubuntu 22.04 LTS
  • 带宽:3Mbps
  • 系统盘:40GB SSD
  • 价格:每月大约 40-50 元

这个配置跑 OpenClaw 绰绰有余。OpenClaw 的 Gateway 进程不占什么资源,内存占用大概 200-300MB,CPU 几乎不消耗。2 核 2GB 的配置,哪怕你同时跑几个后台任务,也完全够用。

如果你是团队用,或者需要跑一些更重的 AI 任务,那可以考虑升级配置,但大多数情况下,轻量级就够了。

注意一点:选系统的时候一定要选 Linux,推荐 Ubuntu 或 Debian。不要选 Windows——不是不行,但麻烦得多,而且很多 AI 工具的生态都在 Linux 上。


二、环境搭建:从零装起

服务器开好之后,通过 SSH 连上去,开始装环境。

第一步:系统更新

sudo apt update && sudo apt upgrade -y

这个不用解释,装完系统第一件事就是更新。

第二步:安装 Node.js

OpenClaw 是基于 Node.js 运行的,所以需要安装 Node 环境。推荐用 nvm 来管理,这样切换版本方便:

curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash
source ~/.bashrc
nvm install 22
nvm use 22

我用的是 Node 22 LTS 版本,这是 OpenClaw 官方推荐的版本,兼容性最好。

装完之后验证一下:

node -v  # 应该显示 v22.x.x
npm -v   # 应该显示 10.x.x

第三步:安装 OpenClaw

npm install -g openclaw

这一步很快,装完之后验证:

openclaw --version

第四步:安装其他依赖

根据你后续要用的功能,可能还需要装一些东西。比如如果你要用 Python 脚本,就装 Python:

sudo apt install -y python3 python3-pip

如果你要用到一些 AI 相关的 Python 库,也可以一并装了。


三、OpenClaw 初始化配置

环境装好了,接下来是配置 OpenClaw 本身。

初始化工作区

openclaw init

这会自动在你的 home 目录下创建 .openclaw 工作区,包含配置文件、插件目录、技能目录等。

配置飞书插件

这是我的核心需求——让 AI 助手能收发消息、查日历、管日程。飞书插件的配置,核心就是拿到飞书开放平台的应用凭证:

  1. 去 飞书开放平台 创建一个自建应用
  2. 在应用的”凭证与基础信息”页面,拿到 App ID 和 App Secret
  3. 把这两个值填到 OpenClaw 的飞书插件配置里
# ~/.openclaw/config.yaml 中飞书插件配置
feishu:
  app_id: "cli_xxxxxxxxx"
  app_secret: "xxxxxxxxxxxxxxxxxxxxx"
  encrypt_key: "xxxxx"  # 如果用事件订阅的话

启动 Gateway

配置好之后,启动 Gateway:

openclaw gateway start

看到 Gateway started 的提示,就说明服务跑起来了。


四、对接飞书:让 AI 真正能”聊天”

服务跑起来只是第一步,真正让它能用,还得对接飞书。

配置事件回调

在飞书开放平台的”事件订阅”页面,配置事件回调 URL。这个 URL 就是你的服务器地址加上 OpenClaw Gateway 的回调路径。

比如:https://your-server-ip:6688/feishu/callback

这里有个坑——你的服务器需要有公网 IP 或者通过内网穿透暴露出来。如果用的是阿里云轻量服务器,直接配公网 IP 就行。如果是本地电脑,可能需要 ngrok 之类的工具。

订阅必要的事件

你需要订阅以下事件,才能让 AI 助手正常工作:

  • im.message.receive_v1:接收消息事件
  • im.chat.member.bot.added_v1:机器人被拉入群事件
  • im.message.message_read_v1:消息已读事件

订阅好之后,在飞书群里@你的机器人,它就能收到消息并回复了。


五、自动化配置:让服务永远在线

到这里,OpenClaw 已经能跑了。但还有一个问题——你关了 SSH 窗口,或者服务器重启了,服务就停了。

怎么解决?用 systemd 做服务管理。

创建 systemd 服务

sudo nano /etc/systemd/system/openclaw.service

写入以下内容:

[Unit]
Description=OpenClaw Gateway
After=network.target

[Service]
Type=simple
User=admin
WorkingDirectory=/home/admin/.openclaw
ExecStart=/home/admin/.nvm/versions/node/v22.22.1/bin/openclaw gateway start
Restart=always
RestartSec=5

[Install]
WantedBy=multi-user.target

注意 ExecStart 里的路径,要用 which openclaw 查出来的绝对路径。

然后启用服务:

sudo systemctl daemon-reload
sudo systemctl enable openclaw
sudo systemctl start openclaw

现在,你的 OpenClaw Gateway 就是一个系统服务了。服务器重启会自动拉起,挂了会自动重启,完全不用管。

配置日志查看

journalctl -u openclaw -f

这样就能实时看日志了,排查问题很方便。


六、给 AI 技术人的 5 点启示

折腾完这一整套,我有些感想,写下来供大家参考。

启示一:别怕折腾,怕的是不折腾

说实话,部署过程中我遇到了不少问题。端口被占、权限不够、Node 版本不兼容……每一个问题都让人头疼。但解决完回头看,每一个坑都是一次学习机会。你不折腾,永远不知道问题在哪;你折腾了,就知道下次怎么避免了。

启示二:云服务器的性价比超乎想象

我一开始以为云服务器很贵,结果算下来一个月才几十块钱。这个钱换来的是——24 小时在线的 AI 助手、自动运行的定时任务、不怕断电的持久化服务。对于任何一个想认真用 AI 工具的人来说,这个投入产出比是划算的。

启示三:自动化运维不是锦上添花,是刚需

一开始我手动启动服务,结果发现关了 SSH 就断了。后来用 systemd 做了服务管理,整个世界都清净了。这就是自动化的力量——把重复的、容易出错的事情交给系统,你只管专注在真正有价值的事情上。

启示四:安全意识要时刻在线

服务器暴露到公网,意味着你要面对各种扫描和攻击。我做了这几件事:改了 SSH 默认端口、禁用了密码登录只允许密钥、配置了防火墙只开必要的端口。这些不是可选项,是必选项。

启示五:选择正确的工具链

我一开始试过用 Docker 部署,但发现对于 OpenClaw 这种相对轻量的服务来说,Docker 反而增加了复杂度。直接用 nvm 管理 Node、用 systemd 管理服务,简单有效。不要为了”看起来专业”而引入不必要的复杂度——最简单的方案往往就是最好的。


写在最后

把 AI 助手搬上云,不是多么高深的事情。本质上,它就是在一台远程 Linux 机器上装软件、配环境、跑服务。但你获得的价值是巨大的——一个永远在线、随时待命、帮你处理各种任务的 AI 伙伴。

30 分钟,一台云服务器,一个 AI 助手。这件事,值得你去做。

如果你觉得这篇文章对你有帮助,点个「👍」让更多人享受到云端 AI 助手的便利~