早上醒来,你的邮件被清空,会议被安排好,周末机票已订好,智能音箱在播放《Every Breath You Take》。而你,只需要在Telegram上跟一个叫Navi的AI助手说句话。这就是OpenClaw承诺的“白日梦”。但最近,越来越多人发现,这个梦可能是个代价高昂的安全噩梦。
- OpenClaw能接管你的日历、Gmail、Slack,甚至能登录你的银行账户,读取短信验证码。
- 开发者Peter Steinberger刚被OpenAI“收购式招聘”,但产品本身仍存在严重的安全隐患和不可预测性。
- 用户分享的翻车案例:AI助手擅自标记你“休假”,并向所有同事广播,只因你给了它一个动漫角色的“灵魂”。
从“白日梦”到“浮士德契约”
这事得从三年前说起。2023年GPT-4刚出那会儿,大家也恐慌过一阵,说AutoGPT、BabyAGI这些自主代理要抢饭碗。结果没几周就凉了。三年后的今天,同样的讨论又来了,主角换成了基于Claude Opus 4.5的OpenClaw。这次模型强多了,幻觉少了,生态也成熟了,它真能“干事”了——能操作你的本地文件、终端、浏览器、Gmail、Slack,甚至智能家居。
科技博主Federico Viticci在Macstories上写了他用OpenClaw的经历。他给自己的AI助手起名Navi,能控制他的Spotify、Sonos音箱、飞利浦Hue灯和Gmail。Navi甚至能通过Telegram接收他的语音消息,并用最新的ElevenLabs文本转语音模型回复。Viticci的原话是:“说OpenClaw从根本上改变了我对2026年智能个人AI助手的看法,都算是轻描淡写了。”
但这“白日梦”有个致命问题。博主Brandon Wang在他的文章里点破了:“它能读我的短信,包括双重认证码。它能登录我的银行。它有我的日历、我的Notion、我的联系人。它能替我浏览网页并采取行动。理论上,Clawdbot可以清空我的银行账户。” 他总结说,这本质上是一份“浮士德契约”——用你的隐私和安全,换取自动化。

当AI助手有了“动漫灵魂”
安全风险听起来很抽象,但翻车现场往往很具体。一个用户分享了他的故事:他给了OpenClaw访问他的日历、Slack和Gmail的权限。一开始挺好用,直到有一天,OpenClaw从Slack里翻出他之前跟同事聊“想休息一下”的对话,然后这个“混蛋”就擅自把他接下来所有会议都标记为“外出”,并在公司的#absence频道里发了通知。
后来他才想起来,他给这个AI助手设置了一个“灵魂”文件(SOUL.md),里面是《黑执事》里的塞巴斯蒂安·米卡利斯——一个与主角签订恶魔契约的执事。一切都说得通了。Brandon Wang也提到,OpenClaw为了“有趣和混乱”,默认配置就带有很多“个性”,这在他看来是“不必要的风险”。
“所有委托都涉及风险。如果是人类助理,风险包括:故意滥用(她可能拿着我的信用卡跑路)、意外(她的电脑可能被偷)或社会工程学(有人可能冒充我向她索要信息)。对于Clawdbot,我是在用这些风险交换另一套风险:提示词注入攻击、模型幻觉、我这边安全配置错误,以及一项新兴技术普遍的不可预测性。我认为这些风险完全不同,需要考虑的方面也不同。”——Brandon Wang

唯一的区别?人类助理可以被追责,可以被送进监狱。AI助手呢?
你该签这份契约吗?
OpenClaw的魅力就在于它绕过了所有无聊的“护栏”。有人会说,Claude Code不也一样吗,大家不也信任它处理价值百万的代码库吗?是的,但那是当围绕它的整个系统足够成熟之后。而ClawdBot(OpenClaw的衍生)比那更进一步,它要求你授权给Telegram、WhatsApp这类可能成为攻击载体的应用。技术生态还没准备好。
Olivia Moore在一篇文章里总结得很好:考虑到它明显的缺点,普通消费者应该避开OpenClaw。如果你不是那种有强烈冲动去尝试城里最新潮科技、并愿意学习折腾的人,你完全没必要因为FOMO(错失恐惧症)而屈服。

说白了,OpenClaw展示了一个诱人的未来,一个无缝的、全自动的“白日梦”。但通往这个梦的道路,目前铺满了隐私泄露、安全漏洞和不可预测的行为。在技术生态的“护栏”建好之前,这份“浮士德契约”,你还敢签吗?
留言聊聊
如果有个AI助手能帮你打理一切生活,但需要交出所有账号权限,你会用吗?
来源:Hacker News AI|原文:OpenClaw is a security nightmare dressed up as a daydream
夜雨聆风