自托管 AI 助手:OpenClaw 如何定义个人 AI 的新标准
-
你运行一个 Gateway 程序(在你的电脑或服务器) -
它连接你使用的聊天应用(WhatsApp、Telegram、Discord 等) -
你在聊天里给 AI 发消息 -
AI 回复你
-
数据隐私
# 5 分钟启动npx openclaw
-
数据不出你的网络 -
模型使用你自己的 API key -
你完全控制配置
-
会话管理:每个用户有独立会话 -
工具调用:AI 可以调用外部工具 -
记忆系统:长期记忆 -
多 Agent 路由:可以运行多个 Agent
-
阅读源码 -
修改功能 -
自己编译 -
贡献代码
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
-
数据敏感行业
[聊天平台] ←→ [OpenClaw Gateway] ←→ [AI 模型] ↓ ↓[会话管理][工具调用] ↓[记忆系统]
-
连接聊天平台 -
消息路由和转发 -
会话和用户管理 -
权限控制
-
调用 AI 模型 -
工具调用 -
记忆存储和检索 -
多 Agent 协调
-
会话历史 -
长期记忆 -
技能库 -
配置文件
{"channels": {"whatsapp": {"allowFrom": ["+15555550123"],"groups": {"*": { "requireMention": true } } },"telegram": {"allowFrom": ["@username1", "@username2"] } },"messages": {"groupChat": {"mentionPatterns": ["@openclaw"] } },"agents": {"default": {"model": "glm-4.7","temperature": 0.7 } }}
-
谁可以给 AI 发消息 -
群聊中是否需要 @ 提及 -
使用什么模型 -
模型参数
# 安装npm install -g openclaw# 配置(可选)cp ~/.openclaw/openclaw.example.json ~/.openclaw/openclaw.jsonvi ~/.openclaw/openclaw.json# 启动npx openclaw
# 使用 Dockerdocker run -d \ -v ~/.openclaw:/root/.openclaw \ -p 18789:18789 \ openclaw/openclaw# 或使用 systemdsystemctl start openclaw
# 通过 Tailscale 访问远程 Gatewayopenclaw configure tailscale
-
不限于微信 -
不限于控制电脑 -
完全开源 -
支持任意 AI 模型
-
技术门槛
-
什么时候选择 OpenClaw?
-
重视数据隐私 -
需要多平台支持 -
有技术能力自托管 -
想要完全定制
-
想要零配置 -
使用频率不高 -
不介意数据上传 -
只需要单平台访问
# 先试用本地版本npx openclaw# 熟悉后,考虑服务器部署# 或使用 Docker / systemd
-
更简单的部署
-
商业服务:数据是厂商的资源 -
OpenClaw:数据是用户的资产
-
商业服务:厂商决定功能 -
OpenClaw:用户决定一切
-
商业服务:封闭黑盒 -
OpenClaw:开源白盒
夜雨聆风