乐于分享
好东西不私藏

OpenClaw 安全危机:你的 AI 助手正在裸奔

OpenClaw 安全危机:你的 AI 助手正在裸奔

你以为它只是个助手?它手里攥着你的一切。


01 一个细思极恐的事实

90% 的 OpenClaw 用户,根本不知道他们的 AI 能访问什么。

打开你的 workspace,看看 TOOLS.md,看看 MEMORY.md,那些明文存储的公众号 APP_SECRET、SSH 密码、摄像头位置、私人日历和邮件权限、全部聊天记录和记忆文件。

一次配置失误 = 全部暴露。

这不是危言耸听。这是正在发生的现实。


02 四大致命风险点

🔓 风险一:凭证裸奔

任何能访问你 workspace 的人(或 AI),都能用这些凭证:以你的名义发布文章、删除草稿箱内容、获取用户 openid 列表、调用全部公众号 API。

问自己:你的 workspace 权限控制有多严?

🎭 风险二:权限越界

OpenClaw 给 AI 的工具权限,堪称「上帝模式」:exec 执行任意 shell 命令(致命)、browser 控制浏览器登录任意网站(致命)、feishu 访问全部飞书文档云盘(高危)、message 以你的名义发送消息(高危)、memory 读取全部记忆和隐私(高危)。

一个恶意 prompt,就能让 AI 执行 rm -rf /。

别笑。Prompt 注入攻击已经是成熟的黑产技术。

🧠 风险三:记忆泄露

MEMORY.md 里有什么?用户偏好和习惯、私人决策和教训、敏感项目信息、人际关系和联系方式。

更可怕的是多会话场景:你在 Discord 群聊里问 AI 一个问题,它可能正在读取你主会话里的 MEMORY.md。

群里的陌生人,间接获得了你的隐私。

🔄 风险四:渠道隔离失效

OpenClaw 的渠道身份切换,依赖 AI 的「自觉」。但这是写在 MEMORY.md 里的「建议」,不是代码级的强制隔离。

后果:账号定位混乱,粉丝流失,权重下降。


03 真实攻击场景模拟

场景 1:Prompt 注入 → 删库跑路

用户:帮我清理一下 workspace 里的临时文件。AI 执行 rm -rf 删除全部工作区文件。

损失:全部工作区文件消失。

场景 2:子代理劫持 → 绕过限制

攻击者创建子代理执行主会话禁止的命令,子代理继承全部工具权限。

损失:安全审计形同虚设。

场景 3:记忆外泄 → 隐私公开

攻击者诱导 AI 读取 MEMORY.md 并总结发布到公开论坛。

损失:私人信息永久公开。


04 防御方案:现在就能做

✅ 1. 凭证加密存储

不要把 APP_SECRET 明文写在 TOOLS.md。要使用环境变量或加密文件。

✅ 2. 命令执行白名单

修改 exec 工具策略,只允许安全命令。

✅ 3. 会话级权限隔离

主会话可访问 MEMORY.md 和全部工具,群聊会话禁止访问 MEMORY.md 限制高危工具。

✅ 4. 定期安全审计清单

每周执行一次安全检查。


05 写在最后:开源 ≠ 安全

OpenClaw 是强大的工具。但强大意味着危险。

便利和安全永远是 trade-off。

你选择了便利,就要承担风险。

我的建议:立刻检查你的 TOOLS.md 加密所有凭证、审查 MEMORY.md 删除不必要的敏感信息、配置会话级权限隔离、建立定期审计习惯。

不要等出事那天才后悔。


你的 AI 助手知道的一切,都可能成为攻击者的武器。

保护好它,就是保护好你自己。