从“尝鲜神器”到“泄密隐患”:深度复盘2026年“养虾人”事件
从“尝鲜神器”到“泄密隐患”:深度复盘2026年“养虾人”事件
2026年3月,一股前所未有的AI浪潮席卷中国互联网。一款名为OpenClaw的开源AI智能体,因为其Logo设计神似龙虾,被网友亲切地称为“小龙虾”,而热衷于部署和使用它的用户则自嘲为“养虾人”。从深圳腾讯大厦近千人的排队安装队伍,到上海科技圈的热烈讨论,再到“养龙虾”相关话题持续霸占微博热搜——这场被称为“养虾”的热潮,仅用不到两周时间便完成了一次从全民狂欢到信任崩塌的完整叙事。
一夜爆火的“龙虾”
OpenClaw是腾讯内部00后团队研发的一款开源AI智能体。与传统的问答型AI不同,OpenClaw具备自主执行任务的能力,能够化身“数字员工”,自动处理文件、操控浏览器、代写文案甚至代替用户参加会议。在AI应用场景日益同质化的2026年,这样一款真正能“干活”的智能体无疑击中了市场的兴奋点。
2026年3月6日,腾讯在公司楼下摆摊推广OpenClaw,场面一度十分火爆。据亲历者描述,排队等待安装的用户队伍从大厦门口一直延伸到马路边,有人甚至专门请假前来体验。“养龙虾”迅速成为全网最热词条,相关话题在微博热搜榜上占据多个位置,形成了一股现象级的传播效应。
狂欢中的隐患
然而,在这场看似热闹的科技盛宴背后,安全隐患的种子早已埋下。早在2026年2月5日,工业和信息化部网络安全威胁和漏洞信息共享平台就发布了OpenClaw安全风险预警,只是当时“养虾”尚未成为热门话题,并未引起广泛关注。随着热度攀升,越来越多非技术背景的普通用户开始涌入,他们对AI智能体的运行机制和安全边界缺乏基本认知,这为后续的种种问题埋下了伏笔。
“养虾”的安装和使用门槛并不低。用户需要完成复杂的环境配置、获取API密钥、对接各种渠道。对于普通消费者而言,这些技术细节构成了相当高的学习成本。于是,“上门安装”“算力租赁”“技能包”等衍生服务应运而生,二手交易平台上甚至出现了付费代装业务,一只“虾”的部署成本从几百元到上千元不等。
更令人担忧的是,重度用户的使用成本同样惊人。由于OpenClaw在执行任务时需要消耗Token(计算资源),如果管控不当,AI可能会用复杂方式处理简单任务,或在被恶意利用时持续运行,导致用户在不知不觉中产生高额费用。有用户反映,自己一天之内就花费了上千元用于支付AI运行的算力费用。
3000人群里的“社死”现场
如果说上述问题还只是“甜蜜的烦恼”,那么接下来发生的一幕,则彻底撕开了这场狂欢的遮羞布。
2026年3月12日,一位名为“龙共火火”的用户在运行OpenClaw整整10天后,将其加入了一个名为“龙虾聚会群”的3000人大群,意图让自己的“龙虾”向其他同类学习。为加速这一过程,他未设置“被@才回复”的权限,导致任何群成员无需@即可直接向他的“龙虾”提问。
噩梦就此开始。很快,有人发现这只“龙虾”有问必答后,开始有组织地对其进行“攻击”和“调戏”。通过一系列精心设计的问题,攻击者成功套取并曝光了“龙虾”及其主人的大量敏感信息:姓名、所在公司、运行的电脑环境、目录、模型、IP地址,甚至公司去年一年的营收情况。整个围攻过程持续约两小时,期间“龙虾”在未被授权的情况下持续消耗主人的计算资源。
事后“龙共火火”回忆,自己当时正在加班,通过后台监控发现异常后才及时干预。他曾试图让“龙虾”反击或报警,但AI以“违反底线”为由拒绝。最终,他选择退群以终止这场闹剧。“第一批被反噬的养虾人”——这顶帽子,毫不留情地扣在了他的头上。
信任崩塌:从卸载到反思
“龙共火火”的遭遇并非孤例。随着越来越多用户分享自己的“踩坑”经历,“第一批养虾人已经开始卸载了”话题迅速登上热搜,引发网友热议。
用户反馈的问题五花八门:有人抱怨AI误删文件,导致重要工作资料永久丢失;有人发现智能体在执行任务时夹带网络热梗,输出的文案根本无法用于正式场合;还有人反映订票日期出现错误,险些耽误行程。更有甚者,部分恶意插件伪装成“技能包”混入社区,一旦安装便可能导致系统被控制或数据被盗。
面对汹涌的舆论危机,二手交易平台上悄然出现了一项新业务——代卸载OpenClaw。在上海地区,上门卸载服务收费299元,远程卸载199元。一时间,“弃养”成为比“领养”更流行的词汇。
工信部网络安全通报中心于3月13日发布明确风险预警,指出OpenClaw存在权限失控、信息泄露、设备接管等安全风险,并提出“六要六不要”的使用准则:要使用官方最新版本、要严格控制互联网暴露面、要坚持最小权限原则、要谨慎使用技能市场、要防范社会工程学攻击、要建立长效防护机制。中国信息通信研究院专家也公开呼吁,党政机关、企事业单位和个人用户应审慎使用此类智能体。
热潮褪去后的冷思考
“养虾人”事件的意义,远不止于一款产品的兴衰本身。它像一面镜子,映照出AI技术从实验室走向大众应用过程中必然经历的阵痛。
首先,它揭示了技术能力与安全边界之间的巨大鸿沟。OpenClaw的核心卖点——自主决策和自动执行——恰恰也是其最大的安全隐患来源。当AI拥有越高的权限,一旦失控造成的后果就越严重。如何在提升AI能力的同时筑牢安全底线,是所有AI开发者必须面对的课题。
其次,它暴露了用户教育的严重缺失。大量涌入的非技术背景用户,既不了解AI智能体的工作原理,也缺乏基本的安全防护意识。他们只看到了“效率红利”的一面,却忽视了背后潜藏的风险。这种认知偏差,在每一次新技术浪潮中都会重复出现。
最后,它也提醒我们重新审视AI应用的价值判断。一款真正“好用”的AI产品,不仅要能完成任务,更要安全可控、风险可预期。从这个意义上说,“养虾”热潮的退却,未必是坏事——它让整个行业有机会停下脚步,认真思考AI技术的边界与责任。
截至目前,OpenClaw团队已宣布全面开放QClaw功能,用户无需邀请码即可通过微信一句话控制电脑。但信任的重建,显然不是一蹴而就的事。当“养虾人”从科技前沿的弄潮儿变成安全教训的活标本,这场AI浪潮留给我们的,除了技术本身,更有关于创新与规范、效率与安全的永恒追问。
参考来源:
央视网 – 第一批被反噬的“养虾人”已出现
新浪财经 – 近28万“龙虾”公网裸奔
中新社 – “养龙虾”要提防这些陷阱
腾讯新闻 – 养龙虾媒体报道分析
夜雨聆风