阿里云服务器一键部署 OpenClaw:把 AI 助手搬上云,30 分钟搞定
上周我做了一个决定——把我本地的 OpenClaw AI 助手迁移到阿里云服务器上。原因很简单:本地电脑不可能 24 小时开机,但挂在云上的服务可以。消息来了随时能回,定时任务到点就跑,再也不用担心我关机的时候错过什么重要的事情。
折腾了一个下午,从零开始到全部跑通。说实话,中间踩了不少坑,但最终跑起来的那一刻——看着终端里 Gateway 成功启动的日志,飞书消息一条一条正常收发——那种成就感,真的爽。
今天我就把整个部署过程完整记录下来,从选购服务器到配置环境,从安装 OpenClaw 到对接飞书,一步步写清楚。如果你也想把自己的 AI 助手搬上云,照着做就行。
一、服务器选购:选对配置,少走弯路
阿里云的服务器产品线很杂——ECS、轻量应用服务器、突发性能实例……选哪个?
我的建议很直接:个人用,选轻量应用服务器就够了。
轻量应用服务器有什么好?简单、便宜、够用。我选的配置是:
- 规格:2 核 2GB
- 系统:Ubuntu 22.04 LTS
- 带宽:3Mbps
- 系统盘:40GB SSD
- 价格:每月大约 40-50 元
这个配置跑 OpenClaw 绰绰有余。OpenClaw 的 Gateway 进程不占什么资源,内存占用大概 200-300MB,CPU 几乎不消耗。2 核 2GB 的配置,哪怕你同时跑几个后台任务,也完全够用。
如果你是团队用,或者需要跑一些更重的 AI 任务,那可以考虑升级配置,但大多数情况下,轻量级就够了。
注意一点:选系统的时候一定要选 Linux,推荐 Ubuntu 或 Debian。不要选 Windows——不是不行,但麻烦得多,而且很多 AI 工具的生态都在 Linux 上。
二、环境搭建:从零装起
服务器开好之后,通过 SSH 连上去,开始装环境。
第一步:系统更新
sudo apt update && sudo apt upgrade -y
这个不用解释,装完系统第一件事就是更新。
第二步:安装 Node.js
OpenClaw 是基于 Node.js 运行的,所以需要安装 Node 环境。推荐用 nvm 来管理,这样切换版本方便:
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash
source ~/.bashrc
nvm install 22
nvm use 22
我用的是 Node 22 LTS 版本,这是 OpenClaw 官方推荐的版本,兼容性最好。
装完之后验证一下:
node -v # 应该显示 v22.x.x
npm -v # 应该显示 10.x.x
第三步:安装 OpenClaw
npm install -g openclaw
这一步很快,装完之后验证:
openclaw --version
第四步:安装其他依赖
根据你后续要用的功能,可能还需要装一些东西。比如如果你要用 Python 脚本,就装 Python:
sudo apt install -y python3 python3-pip
如果你要用到一些 AI 相关的 Python 库,也可以一并装了。
三、OpenClaw 初始化配置
环境装好了,接下来是配置 OpenClaw 本身。
初始化工作区
openclaw init
这会自动在你的 home 目录下创建 .openclaw 工作区,包含配置文件、插件目录、技能目录等。
配置飞书插件
这是我的核心需求——让 AI 助手能收发消息、查日历、管日程。飞书插件的配置,核心就是拿到飞书开放平台的应用凭证:
- 去 飞书开放平台 创建一个自建应用
- 在应用的”凭证与基础信息”页面,拿到 App ID 和 App Secret
- 把这两个值填到 OpenClaw 的飞书插件配置里
# ~/.openclaw/config.yaml 中飞书插件配置
feishu:
app_id: "cli_xxxxxxxxx"
app_secret: "xxxxxxxxxxxxxxxxxxxxx"
encrypt_key: "xxxxx" # 如果用事件订阅的话
启动 Gateway
配置好之后,启动 Gateway:
openclaw gateway start
看到 Gateway started 的提示,就说明服务跑起来了。
四、对接飞书:让 AI 真正能”聊天”
服务跑起来只是第一步,真正让它能用,还得对接飞书。
配置事件回调
在飞书开放平台的”事件订阅”页面,配置事件回调 URL。这个 URL 就是你的服务器地址加上 OpenClaw Gateway 的回调路径。
比如:https://your-server-ip:6688/feishu/callback
这里有个坑——你的服务器需要有公网 IP 或者通过内网穿透暴露出来。如果用的是阿里云轻量服务器,直接配公网 IP 就行。如果是本地电脑,可能需要 ngrok 之类的工具。
订阅必要的事件
你需要订阅以下事件,才能让 AI 助手正常工作:
im.message.receive_v1:接收消息事件im.chat.member.bot.added_v1:机器人被拉入群事件im.message.message_read_v1:消息已读事件
订阅好之后,在飞书群里@你的机器人,它就能收到消息并回复了。
五、自动化配置:让服务永远在线
到这里,OpenClaw 已经能跑了。但还有一个问题——你关了 SSH 窗口,或者服务器重启了,服务就停了。
怎么解决?用 systemd 做服务管理。
创建 systemd 服务
sudo nano /etc/systemd/system/openclaw.service
写入以下内容:
[Unit]
Description=OpenClaw Gateway
After=network.target
[Service]
Type=simple
User=admin
WorkingDirectory=/home/admin/.openclaw
ExecStart=/home/admin/.nvm/versions/node/v22.22.1/bin/openclaw gateway start
Restart=always
RestartSec=5
[Install]
WantedBy=multi-user.target
注意 ExecStart 里的路径,要用 which openclaw 查出来的绝对路径。
然后启用服务:
sudo systemctl daemon-reload
sudo systemctl enable openclaw
sudo systemctl start openclaw
现在,你的 OpenClaw Gateway 就是一个系统服务了。服务器重启会自动拉起,挂了会自动重启,完全不用管。
配置日志查看
journalctl -u openclaw -f
这样就能实时看日志了,排查问题很方便。
六、给 AI 技术人的 5 点启示
折腾完这一整套,我有些感想,写下来供大家参考。
启示一:别怕折腾,怕的是不折腾
说实话,部署过程中我遇到了不少问题。端口被占、权限不够、Node 版本不兼容……每一个问题都让人头疼。但解决完回头看,每一个坑都是一次学习机会。你不折腾,永远不知道问题在哪;你折腾了,就知道下次怎么避免了。
启示二:云服务器的性价比超乎想象
我一开始以为云服务器很贵,结果算下来一个月才几十块钱。这个钱换来的是——24 小时在线的 AI 助手、自动运行的定时任务、不怕断电的持久化服务。对于任何一个想认真用 AI 工具的人来说,这个投入产出比是划算的。
启示三:自动化运维不是锦上添花,是刚需
一开始我手动启动服务,结果发现关了 SSH 就断了。后来用 systemd 做了服务管理,整个世界都清净了。这就是自动化的力量——把重复的、容易出错的事情交给系统,你只管专注在真正有价值的事情上。
启示四:安全意识要时刻在线
服务器暴露到公网,意味着你要面对各种扫描和攻击。我做了这几件事:改了 SSH 默认端口、禁用了密码登录只允许密钥、配置了防火墙只开必要的端口。这些不是可选项,是必选项。
启示五:选择正确的工具链
我一开始试过用 Docker 部署,但发现对于 OpenClaw 这种相对轻量的服务来说,Docker 反而增加了复杂度。直接用 nvm 管理 Node、用 systemd 管理服务,简单有效。不要为了”看起来专业”而引入不必要的复杂度——最简单的方案往往就是最好的。
写在最后
把 AI 助手搬上云,不是多么高深的事情。本质上,它就是在一台远程 Linux 机器上装软件、配环境、跑服务。但你获得的价值是巨大的——一个永远在线、随时待命、帮你处理各种任务的 AI 伙伴。
30 分钟,一台云服务器,一个 AI 助手。这件事,值得你去做。
如果你觉得这篇文章对你有帮助,点个「👍」让更多人享受到云端 AI 助手的便利~
夜雨聆风