
最近两周,我的朋友圈被一只红色“小龙虾”刷屏了。
OpenClaw,这个开源自托管AI助手项目,GitHub狂揽49k stars,连Mac Mini都被带成“养虾标配”。腾讯楼下排起长队,马化腾发圈感叹,傅盛自称“养虾14天”写出百万阅读爆文。
技术圈很久没这么热闹了。但在一片“养虾”狂欢中,我却嗅到一丝不安——当我们兴高采烈地把AI请进电脑、赋予它执行命令的权限时,我们到底在养一只温顺的小龙虾,还是在放出一头难以控制的老虎?
观点:AI助手的“权力下放”,正在制造新的安全黑洞
OpenClaw的核心理念很美:把AI从浏览器标签里解放出来,变成7x24小时待命的贴身助手。它能接入WhatsApp、Telegram,能记住上下文,能安装各种Skills扩展功能,甚至能直接执行Shell命令、控制浏览器。
听起来很酷,对吧?
但问题恰恰出在这里。传统AI助手的边界是清晰的——网页版ChatGPT再强大,也只是一问一答的工具,它无法触碰你的系统。而OpenClaw打破了这堵墙,它获得了“计算机权限”,可以真正“动手”做事。
这意味着什么?意味着一个提示词注入攻击,就可能让AI误读网页中的恶意指令,把你的SSH密钥发出去;意味着一次意图理解偏差,它可能把你的数据库当成垃圾文件清空;意味着一个伪装成“效率工具”的恶意插件,可以直接在你的电脑里开后门。
国家互联网应急中心的警告不是危言耸听:全球已有超过22万个OpenClaw实例暴露在公网,多个插件被确认为恶意。这是一个正在蔓延的安全黑洞。
思考:为什么我们愿意冒这么大的风险?
这引出一个更深层的问题:为什么成千上万的开发者,明知有风险,仍趋之若鹜?
因为效率的诱惑太大了。
傅盛的故事很有代表性——14天时间,一个“龙虾”变成了8个智能体的团队,7x24小时自动工作,帮他策划出百万阅读爆文。这种生产力的跃迁,几乎是所有知识工作者的梦想。
我们受够了在不同App之间来回切换,受够了重复性的琐碎工作,受够了AI只能在对话框里“纸上谈兵”。OpenClaw承诺的“真·动手能力”,正好击中了这个痛点。
但问题在于,便利与风险往往是硬币的两面。我们急于拥抱AI带来的效率红利,却很少停下来思考:当AI可以替我们做事时,它也在替我们做决策;当AI能访问我们的系统时,它也在成为系统的新攻击面。
这不是OpenClaw独有的问题。这是整个AI行业从“对话式AI”迈向“代理式AI”必须面对的阵痛。GPT系列在推“Function Calling”,Claude在推“Computer Use”,谷歌在推“Project Astra”——所有巨头都在做同一件事:让AI从“聊天”走向“行动”。
OpenClaw只是这个趋势的开源缩影。它之所以火,不是因为技术多超前,而是因为它把“AI行动化”的门槛降到了最低——一行命令安装,扫码接入WhatsApp,人人都能拥有一个“能干活”的AI。
但门槛越低,风险扩散越快。
行动:与其因噎废食,不如建立“驯虾”的底线
我不是在呼吁大家别用OpenClaw。恰恰相反,我认为这类项目代表未来方向,值得每个技术人尝试。但在尝试之前,我们必须建立几条底线:
第一,隔离原则。 永远不要把OpenClaw部署在你的主力工作机或个人电脑上。用独立设备、虚拟机或容器跑,像对待任何暴露在公网的服务一样对待它。Mac Mini之所以成为“养虾标配”,不只是因为它适合跑AI,更因为它便宜——坏了一台不心疼。
第二,权限最小化。 仔细审视每个安装的Skill,只给必要权限。别贪图方便一键安装所有插件,优先选官方或高星开源项目。就像手机App不会乱给权限一样,AI助手的权限也该“最小够用”。
第三,数据不信任原则。 别让OpenClaw访问真正的核心数据。测试可以用测试库,工作可以用脱敏数据。提醒自己:它在替你干活,但它不是你。
第四,持续关注安全动态。 及时更新版本,关注官方安全公告。这不是一次性部署就完事的玩具,而是需要持续维护的工具。
说到底,OpenClaw的火爆是一个信号:AI正在从“对话工具”进化成“行动代理”。这个方向不可逆转,也充满想象力。但技术越强大,责任越重大。
我们这代技术人,正在亲手塑造人与AI共处的方式。今天我们对OpenClaw的态度——是盲目追捧,还是理性驾驭——会影响未来整个AI生态的走向。
与其在“养虾”和“放虎”之间二选一,不如学会当一个负责任的“驯虾人”。因为终有一天,这些小龙虾会长大,而我们要和它们共存。
学Ai、用Ai普通人搞钱实战指南 只分享能落地、有结果的赚钱方法
想结识一群满脑子都是搞钱,执行力强,三观超正的朋友,一起搞钱,一起修行,一起变优秀。
私我将共享【前沿资讯、免费课程、实战项目及资源对接】
夜雨聆风