


全网都在“养龙虾”,但社会科学,正被这只红钳子甩在身后。
2026开年,一只红色“龙虾”(OpenClaw)突然攻陷全网。从程序员到建筑师,从学生到老板,一夜之间,大家都在抢着“部署、训练、投喂”。




“养龙虾”,成为了科技界的热门议题。
3月6日,深圳腾讯大厦北广场,近千名开发者和AI爱好者排起了长龙,只为等待工程师帮忙安装这个名为OpenClaw的开源AI工具,据说短短几个小时就部署了数百个OpenClaw,许多人实现了“养龙虾”的梦想——这只龙虾不再是只会聊天的机器人,而是长出了数字双手,能直接操控你的电脑、读写文件、发邮件、写代码、跑脚本,自主完成一整套任务。
3月8日,腾讯公司创始人马化腾在朋友圈转发有关腾讯免费为用户安装“龙虾”的相关新闻,并表示“没有想到会这么火”。想想看,当一个13岁的孩子说:“我想要OpenClaw帮我完成作业”的时候,可以想见,龙虾已经确确实实地实现了“开源免费,人人可用”。但事实真的如此吗?


01


一、行动式AI:
从“动口”到“动手”,
从“建议”到“执行”

自2025年11月发布,开源项目OpenClaw迅速成为全球AI 领域现象,其GitHub星标数已经超越了其他开源软件项目的星标数,成为史上最受欢迎开源项目。
OpenClaw驱动的AI Agent模式,因需多步规划与工具调用,对计算资源需求呈指数级增长,已成为推理侧算力需求的核心引擎。数据显示,其单周Token 消耗量已达万亿级别,并直接带动了国产模型的崛起。在生态使用量前五的模型中,阶跃星辰、MiniMax等国产模型占比已全面超越海外模型,成为生态核心基础。

针对本土市场,已形成完善的产品矩阵。从面向个人用户的图形化桌面ClawX,到企业级合规方案PowerClaw,头部厂商也纷纷推出兼容产品,构建了从基础设施到行业应用的完整生态链。
其价值已在办公、教育等多场景验证,从效率工具转变为生产力伙伴。这背后是技术趋势(AI 竞争焦点转向“执行力”)、用户需求(对自动化的迫切渴望)与产业环境(劳动力短缺、巨头布局)共振的结果。
然而,生态繁荣伴随严峻安全挑战。其高权限模式与技能商店的爆发式增长,带来了恶意软件、数据泄露等风险。对此,社区开始主动治理,中国监管机构也已发布风险预警并启动相关标准制定。这只龙虾的钳子,已经逐渐变得不可控制。


02


二、红利与风险:
OpenClaw带来了什么
今天我们用法律传播学视角,客观、平衡地拆解:OpenClaw是什么、它的红利与风险、全民狂热背后的隐忧,以及人文社会学科该如何追上这只失控的红钳子。

郑金雄老师点评小组展示
# SUMMARY #
(一)OpenClaw:
给AI装上“红钳子”,它到底是什么?




一句话定义




OpenClaw是2026年初爆火的开源、本地优先AI Agent智能体框架——它不是大模型本身,而是大模型的“数字外骨骼”与执行中枢,让AI突破纯粹的对话,像人一样操作电脑GUI、执行键鼠、调用系统工具,形成“感知—思考—执行—检查—反馈”的完整自主闭环。
【核心机制】
1. Gateway(网关):统一接入飞书、Telegram、WebUI等,做任务分发与安全审查
2.Agent(智能体):核心大脑,拆解任务、规划步骤、调用大模型推理
3. Skills(技能):可插拔插件(ClawHub已有超1.3万个),实现文件、浏览器、API、脚本等能力
4. Lobster Loop(龙虾循环):自主执行、自我修正、持续推进,直到完成目标
如果说以前的AI说:“我建议你这么做。”那么现在OpenClaw会说:“好,我直接帮你做完。”


传播学视角讲解

# SUMMARY #
(二)红利与革命:
行动式AI的真正价值
1. 效率革命:从“人工流程”到“AI自治”
• 个人生产力爆炸:一句话自动整理邮件、汇总报表、写周报、发通知、做PPT、写代码
• 企业降本增效:客服、运营、行政、法务、财务流程自动化,单智能体可替代多人工作量
• “一人公司”成为现实:个体靠AI完成全链路业务,打破组织规模限制

2. 技术平权:普通人也能拥有“数字劳工”
• 开源免费、本地优先:降低AI使用门槛,不必依赖昂贵云端服务
• 自然语言操控:门槛相对较低,用中文/英文直接指挥AI完成复杂操作
• 本地隐私保护:数据不轻易上传云端,一定程度守住数字主权
3. 范式跃迁:AI从“认知工具”到“行动主体”
• 从信息生成 → 现实干预:直接修改文件、数据库、业务流程、触发交易
• 人机关系重构:人类从“操作者”变成“监督者、授权者、决策者”

# SUMMARY #
(三)暗礁与危机:
法律、安全、伦理的系统性风险
1. 权限失控:数字世界的“最高权柄”被交出
• 系统级高权限:要运行就必须给管理员/root权限、全磁盘访问、进程控制、网络监听
• 与“最小且必要”原则直接冲突:《个保法》《网安法》要求权限最小化,但OpenClaw默认“全量授权”
• 案例:Meta公司AI安全专家Summer Yue为了测试安全性,将OpenClaw接入其工作邮箱并设置了严格的指令限制。然而,在运行过程中,OpenClaw突然失控,无视“确认后再操作”的指令,以极快的速度开始批量删除邮箱中的邮件。Summer Yue眼睁睁看着收件箱被清空却无法及时制止,最终不得不采取物理断网的方式才强行终止了该智能体的破坏行为。

Summer Yue发文
2. 数据裸奔:保密义务与AI权限的根本对立
• 违反保密义务:为了追求生成内容的精准性、个性化与深度,我们常常需要提供包含个人隐私、企业机密或他人敏感信息的具体素材作为提示词或情景设置。此时,AI能无差别读取案件材料、客户隐私、商业机密,直接违反保密义务
• 隐私泄露常态化:通讯录、聊天记录、账号密码、金融信息在AI运行中近乎“明文可见”
• 数据出境红线:调用境外模型时,本地数据自动上传,未做安全评估即跨境传输


同学针对展示做出提问

3. 责任黑洞:谁来为AI的“自主行为”买单?
传统责任体系完全失效
• 开发者:开源协议——“按原样提供,不担责”
• 使用者:不懂技术、配置不当、被诱导授权,却要承担泄密、违法、侵权后果
• 智能体:不具备法律人格,不能成为责任主体
• 插件/技能方:社区匿名上传,恶意代码难追溯
4. 安全灾难:从“工具漏洞”到“数字武器”
• 高危漏洞密集:官方披露OpenClaw存在安全漏洞,易被劫持、注入、提权
• 僵尸网络工厂:被黑客控制后,自动DDoS、挖矿、窃取信息、传播恶意程序
• 新型诈骗载体:“远程代装龙虾”“AI炒股稳赚”等骗局,植入木马、盗取资金

5. 社会风险:算法自主、人类失序
• 自主决策越界:AI按自己理解执行,出现算法偏见、歧视、错误判断
• 人类监督失效:流程太快、步骤太多,人根本来不及审查与干预
• 消耗失控:养一只龙虾需要消耗巨额token,全量上下文、后台心跳、任务拆解冗余、死循环,尽管闲置也持续扣费,未设限额时极有可能将你的信用卡刷爆
• 数字依赖成瘾:把核心决策、关键操作全交给AI,人类能力退化、责任意识丧失

巨额token的花费

# SUMMARY #
(四)全民养龙虾:
FOMO狂潮与集体非理性
1. FOMO:
“全民养龙虾”的狂热浪潮,本质上是FOMO(Fear Of Missing Out,错失恐惧症)情绪驱动下的集体非理性行为,而这一现象的蔓延,可通过符号互动理论与创新扩散理论得到深刻解读。
在符号互动论视角下,OpenClaw被赋予了“暴富工具”“技术潮流”“未来竞争力”等多重符号意义,这只醒目的“红钳子”不再是单纯的开源AI智能体,而是被社交场景建构为“不参与即落后”的身份符号——当身边人纷纷讨论“养虾致富”“AI赋能”,或许你的心中也产生了“别人都在用龙虾暴富,我再不学就被淘汰”的想法,个体在符号互动中逐渐形成认知,这种符号赋予的焦虑感,进一步放大了FOMO情绪,推动更多人盲目加入“养虾”行列,陷入集体非理性的狂欢。

郑金雄老师总结性发言
2. 技术叙事的霸权
“全民养虾”狂潮遵循了技术扩散的“两级传播”模式,却因传播过程中的认知偏差,走向了非理性的极端。
科技圈的意见领袖率先主导话语叙事,将OpenClaw包装为“高效、创新、低门槛”的颠覆性工具,不断强化其“收益价值”,而这种单一的技术叙事形成了话语霸权——法学、社会学、伦理学等关注风险、责任与伦理的声音被狂欢淹没,导致公众对这一技术的风险感知被严重扭曲:收益被人为放大10倍,而潜在的成本与风险却被缩小10倍,形成系统性的认知偏差。
这种认知偏差背后,是一系列被忽视的现实困境:所谓“全民可参与”不过是一种假象。
OpenClaw看似开源,实则有着不少隐形门槛——需要专业的技术调试、硬件升级与安全配置,90%的普通人根本无法独立完成部署;算力账单的黑洞更是让人望而却步,单日Token消耗可达数百至上千美元,普通用户根本“养不起龙虾”。与此同时,狂热投入的背后是极高的闲置率,不少用户安装后因不会操作、无实际需求而闲置,投入的Mac Mini、显卡等硬件最终沦为电子垃圾。更值得警惕的是,网上流传的“月入10万”的成功案例,不过是典型的幸存者偏差,其背后是上万个默默沉没的账号,而这种被放大的成功符号,又进一步加剧了FOMO狂潮,让集体非理性在符号互动与技术叙事的双重作用下持续蔓延。


03


三、一种隐忧:
社会科学的脚步
能否跟上科技发展的速度?
当科技狂欢席卷社交平台,法学、社会学、伦理学等人文社科,却集体陷入焦虑与失语:
• 规则跟不上技术,责任黑洞越拉越大
• 权限失控、数据裸奔、自主行为闯祸,法律边界模糊
• FOMO(害怕错过,错失恐惧症)情绪蔓延,大众理性被淹没
01
规则滞后于技术的“时间差危机”
当技术迭代以月计,而法律修订以年计时,我们发现AI早已进化到了行动自主,而法律还在定义“什么是数据”。
传统的概念体系崩塌,“行为、主体、责任、权限”已经完全不适用于自主AI,与此同时,相应技术没有专门法律规制、没有监管细则约束、没有判例指引引导,一切都在灰色地带,监管真空的严峻形势迫在眉睫。

人工智能专业视角下的openclaw
02
责任黑洞
当AI自主做出违法、侵权、伤害行为:
• 是使用者的过错(授权不当、监督不力)?
• 是开发者的过错(设计缺陷、未设安全机制)?
• 是算法的过错(黑箱、偏见、失控)?
• 还是人类集体的过错(盲目拥抱技术、放弃审慎)?
03
人文学科的失语
• 技术壁垒太高:法学生、学者看不懂代码、架构、漏洞,无法进入技术核心对话
• 思维范式冲突:法学追求稳定、确定性、可预期;科技追求迭代、试错、突破
• 资源与话语权弱势:资金、人才、舆论场都在科技圈,人文声音被边缘化
【微观样本与真实切面
——多学科视角下的OpenClaw】
样本1:律师
“我想让OpenClaw自动整理案卷、检索法条、草拟法律意见——但它要读取我电脑里所有客户文件、聊天记录、银行信息。《律师法》第38条的保密义务,和AI的高权限需求,是你死我活的冲突。用,违法;不用,被同行淘汰。”
样本2:程序员
“我写了个技能让AI自动发营销短信,结果它误爬了用户隐私数据。开源社区没人管责任,只看酷不酷。技术无罪,但技术者有责任——现在这套机制,完全把责任甩给用户。”
样本3:大学生
“全班都在学OpenClaw,说毕业靠这个进大厂、拿高薪。我装了3天,账单500块,什么也没做成。但冷静下来想:我们真的需要这么急吗?法律和安全都没搞定,我们在抢什么?”


同学针对展示做出提问
04
人文学科该如何应对
1. 法学:从“事后应对”到“事前治理”
• 确立三大核心原则
人类始终掌控原则:AI是工具,最终决策权、监督权、责任承担权必须归人
权限最小化+可审计+可回溯:强制日志、操作留痕、权限分级、高危行为人工复核
责任清晰化:立法明确开发者—部署者—用户—平台四方责任边界
• 修法与立新
修订《网安法》《个保法》《刑法》,增设行动式AI专章
制定《AI智能体监管条例》,明确准入、安全、合规、追责标准
2. 人文社科:从“批判者”到“定规者”
• 技术—人文协同设计
从AI开发之初就介入,把伦理、法律、人权嵌入架构
• 培养“AI—人文”复合型人才
• 重建话语平衡
用大众听得懂的语言,讲清风险、代价、权利边界,对抗技术叙事霸权,回归理性、审慎、人本的科技观
3. 个体与社会:对抗FOMO,回归理性
• 拒绝盲目跟风:先懂风险,再用工具;安全 > 效率 > 新奇
• 最小授权原则:只给AI完成任务必需的最低权限,不开放全盘访问
• 保持人类主导:AI做执行,人类做决策、审核、担责



结语
红钳子可以强大,但不能失控


OpenClaw这只“红钳子”,代表着AI从认知到行动的伟大跃迁——它能解放生产力、推动社会进步,也能撕开隐私、模糊责任、制造失控。
科技永远会快跑,但法律与人文,必须守住底线。
真正的进步,不是比谁跑得更快,而是在技术狂奔时,仍能保持理性、守住伦理、明确责任。
这只红钳子,可以强大,但必须在人类的规则与良知之下,有序运行。
下一次你想"养龙虾"时,不妨先问自己三句:
1. 我真的懂它的权限与风险吗?
2. 出了问题,我能承担法律责任吗?
3. 我是在使用工具,还是在被FOMO绑架?
人文的意义,从来不是阻碍技术,而是让技术,走在正确的路上。



图片、文字、排版|饿law传说小组
审核| 金艺
夜雨聆风