OpenClaw的爆火并非一场孤立的技术狂欢,它背后折射的是AI时代正在发生的系统性变革。从算力经济的变现逻辑,到数据价值的新型燃料,再到平台入口的重构——三重变革正在重塑中国AI产业的竞争格局。


8.1 算力经济:从沉睡到变现

来源:澎湃新闻
要理解OpenClaw在中国爆发的本质,先看一组让投资者和产业观察者难以忽视的数字:据媒体报道,2026年,字节跳动、阿里和腾讯三家巨头预计在算力基础设施上投入超过600亿美元,其中大部分用于AI推理集群建设和运营。成千上万张加速卡日日夜夜运转,如果缺乏高频调用,它们每天都在烧钱——电力、硬件折旧和数据中心维护的成本叠加,使算力本身无法产生收益。如何把闲置算力变现,成为中国AI产业的核心经济问题。
过去两年,大模型商业模式主要依赖轻量级对话:偶尔写邮件或生成图片,Token消耗有限。对于巨型集群,这种低频使用几乎无法覆盖成本,更难形成持续收入。OpenClaw的出现恰恰解决了这个瓶颈:它不是简单聊天机器人,而是能自主拆分任务、联网搜索、调用软件、纠错并重试的Agent。
据观察者网心智观察所报道显示,OpenClaw重度用户日均Token消耗在3000万至1亿之间。若按Claude Opus 4.6计,一天费用约900–3000美元;使用国产MiniMax M2.5,也需42–140美元。相比之下,ChatGPT对话场景月订阅仅20美元,一个活跃OpenClaw实例一天就能消耗数十倍Token。更重要的是,这种高频调用直接转化为现金流,每一次任务执行,无论在用户终端还是云端,都汇入云服务账本。
英伟达CEO黄仁勋近期就指出,与传统生成式大模型相比,智能体执行复杂任务所需的计算令牌(Token)消耗量激增了约1000倍,部分持续监测执行的智能代理甚至高达百万倍。
如果未来一两年中国市场上有100万个OpenClaw实例稳定运行,即便只是勉强回本,也会形成约3600亿美元的Agentic AI算力市场。这不仅超过传统应用规模,更可能重塑半导体产业链供需格局。从投资角度看,Token经济正在根本转变:低频、人机对话模式正在向高频、机器自主执行转型,算力不再只是固定成本,而是可持续盈利的动态资产。
而国产模型在这波浪潮中占据优势,核心在于成本与性价比:国产推理算力显著低于海外,得益于更便宜的电力、灵活硬件配置(部分使用消费级显卡支持高并发推理)以及厂商间激烈的价格竞争。结果是,OpenClaw在中国运行成本几乎零门槛,这也是腾讯在线下设置安装点、派工程师协助用户部署的原因:每一次安装,都在用户设备和云端建立一台24小时运转的“算力抽水机”。
科技产业时评人彭德宇指出,这种模式不仅消耗算力,也形成用户行为闭环。用户在使用Agent执行任务时,频繁调用云端API带来直接收益,同时产生大量真实运行数据,为模型迭代提供基础。OpenClaw将沉睡算力变成持续现金流,并建立与用户行为高度绑定的经济循环,这种模式正成为国产AI商业化的新标准。


8.2 数据价值:任务轨迹成为国产模型的新燃料

来源:澎湃新闻
算力被高频任务持续消耗,但仅靠算力无法形成真正竞争壁垒。下一代大模型的核心竞争力,不在于文字能力,而在于能自主操作、完成任务——这依赖于高价值的任务轨迹数据。
过去几年,训练大模型主要依赖互联网上的公开文本,如维基百科、新闻、论文等。这类数据能提升模型的知识水平,但无法让AI理解和执行复杂任务。任务轨迹数据记录从需求理解到工具调用、信息搜索、表单填写、支付完成的完整操作链。每一次用户指导AI执行任务、纠正错误,都会生成可训练的轨迹数据。业内人士指出,这类数据价值远高于普通文本,因为它直接反映现实世界的操作逻辑与因果推理,是强化学习和Agent训练的核心原料。换句话说,掌握最多任务轨迹数据的厂商,将率先训练出真正“长出手脚”的智能体。
OpenClaw在中国的部署模式,使数据收集变得高效可控。用户不仅愿意安装Agent,还乐于尝试复杂任务,从企业报表处理到家庭自动化。这意味着,每一次任务执行不仅消耗Token,还产生高质量轨迹数据,形成分布式数据众包。OpenClaw中国社区经理Alan Feng表示:“用户装完往往期待魔法般的自动化,但真正的价值在于定义清晰的任务。轨迹数据的反馈能让模型不断优化,厂商才能持续提升代理能力。”
这一逻辑与特斯拉FSD算法数据收集模式类似:特斯拉通过数百万辆汽车收集驾驶行为和路况,快速迭代自动驾驶算法。在AI Agent场景中,用户操作成为数字世界的“感知数据”,推动模型更高效执行任务。中国在这一过程中具备两大优势:一是庞大的开源开发者社区,加速工具接受与传播;二是低成本算力和低价API,降低用户高频调用门槛。数据显示,国产模型API价格约为海外同类产品六分之一,这大幅提高了用户参与度。
国产模型的Token出海策略也在加速。OpenRouter数据显示,国产模型Token消耗占比从2024年底的2%跃升至2026年的39%。这一模式不依赖海外基础设施,而通过算力留在国内、服务面向全球,实现低成本数据蒸馏与快速模型迭代。这意味着,中国不仅在本土市场形成规模优势,也在全球Agent市场占据重要位置。
对企业和投资者而言,关键信号清晰:谁能快速收集、处理并利用任务轨迹数据,谁就能掌握下一代模型迭代优势。算力解决执行问题,而数据决定模型成长。巨头通过端侧Agent深植手机、电脑、汽车和IoT设备,无形掌握用户操作行为和需求链路,显著缩短模型迭代周期,提高Agent执行精度。


8.3 平台生态:端侧Agent重塑用户入口

来源:澎湃新闻
算力和数据只是AI Agent竞争的前半场,更深层的战略战场在于谁能掌握用户的数字操作入口。
历史经验显示,每一次技术范式跃迁都伴随一次“入口战争”:门户时代争首页流量,搜索时代掌握信息检索权,移动互联网时代微信、支付宝和抖音成为超级App。现在,AI Agent开启第四次轮回,用户与数字世界的交互界面正在被彻底重构。
端侧Agent是这一轮入口战争的核心工具。具体来看,小米将自家的MiclawAgent深植手机底层系统,覆盖手机、电视、汽车等设备;阿里千问整合AI办事入口,实现一句话完成下单和服务请求。巨头通过Agent,不再依赖用户主动打开特定应用,而是让AI自主选择平台和服务完成任务。换句话说,App开始退化为“服务节点”,真正的入口成为执行用户意图的Agent。
掌握Agent意味着掌握用户意图分发权。外卖、出行、差旅等需求可以被导向关联企业,支付和服务生态在内部循环。曾依靠流量和品牌溢价的超级App,在新生态中可能失去直接对话权,仅提供底层接口。企事界北京科技有限公司执行董事李睿认为:未来平台控制力将成为衡量企业竞争力的新指标,谁的Agent深植用户设备、掌握意图分发,谁就掌握商业世界的顶级权力。
中国在这场平台战中具备独特优势:一是国产Agent成本低、部署灵活、用户门槛低;二是国内庞大的开发者社区和消费者基础,使Agent普及速度远超海外市场;三是算力、数据和终端生态三重叠加形成闭环,算力高频调用产生现金流,用户操作生成任务轨迹数据,端侧Agent掌握用户入口,进一步强化商业和技术壁垒。
这种布局正在重塑产业投资机会。芯片厂商需加速适配国产模型高频碎片化推理需求;云服务商需提升算力供应和数据流处理能力;应用和设备厂商则需把AI深度整合到操作系统,实现对用户操作的精准调度。每一次投资决策,都直接对应未来平台控制力和用户意图掌握能力。


8.4 开源社区的尊严:杨天润与134个PR

来源:DoNews、投资界
在OpenClaw热潮中,一个“文科生用AI提交134个PR”的故事引爆了舆论场。事件的争议性,将开源社区的深层问题推到了台面上。
事件始末
95后的杨天润是一名AI创业者,金融科班出身,毕业后做了几年并购投资,2024年创办了Naughty Labs,正在开发一款叫Hive Mind的多智能体协调平台。
他想验证一个假设:一个完全不懂技术的人,能不能仅靠指挥AI Agent,就参与到顶级开源项目中去?杨天润搭建了一组AI Agent,自己只负责定目标。Agent开始自主运转后,前几个PR很快被维护者审核通过并合并。但事情很快朝着不可控制的方向发展——杨天润对Agent下了一条加速指令,PR开始像流水线一样被批量生产,质量急剧下降,负责沟通的Agent在评论区疯狂@维护者催促审核。
OpenClaw管理员迅速介入,删除低质量PR并发出封禁警告。最终数据是:Agent共提交了约134个PR,有21个被合并,通过率约15.7%。
争议的核心
杨天润的名字出现在贡献者榜单里,迅速引发热议。一部分人认为这是AI时代的里程碑:技术门槛被彻底拉平,任何人都可以参与开源项目。而另一部分人翻看了GitHub上的实际记录后,得出了截然不同的结论:这不过是一场经过精心包装的营销事件,开源社区成了被利用的道具。
知乎上有人去仔细核对了杨天润的GitHub账号,发现和他在文章中所讲的多个细节都是对不上的,比如他并不是“24小时内第一次代码贡献被合并”,而是在此之前已经失败18次。争议的核心不在于AI能不能写代码,而在于一部分开发者认为,134个PR中有113个被拒,每一个都需要志愿维护者花时间审核和关闭:那21个被合并的成果,是用113次对他人时间的消耗换来的。
以及,批评也进一步点出,杨天润的公司正在开发多智能体平台,围绕这次事件的报道恰好从“文科生逆袭”平滑过渡到了他的产品理念。批评者据此认为,这是一条完整的营销链路:用AI批量刷PR,登上榜单,获得一个传播力极强的故事,最终指向自家产品。OpenClaw的贡献者榜单成了一块免费的背书跳板,社区维护者在不知情的情况下为别人的商业叙事买了单。
GitHub规则调整
GitHub随后更新PR提交规则,设定每位作者最多同时保持10个开放状态PR,超限自动标记并关闭,明确回应近期遭遇的“AI生成低质代码(AI slop)”、同一修改重复提交及其他冗余内容冲击,指出此类行为严重消耗志愿审核者时间。
这一规则调整表明,开源基础设施正面临治理机制适配的新一轮压力测试。
杨天润的回应
在接受采访时,杨天润回应了争议。关于通过率低的问题,他表示:“OpenClaw是一个非常特殊的项目——每分钟都会有好几个PR提出来,所有人的通过概率都是低的,跟一般小众项目是完全不一样的。所以但凡你能被merge,说明你确实did something right。”
关于被关闭的PR,他解释:“是因为中间有一段AI失控……失控之前,我一开始的成功率其实是挺高的。后边是因为我跟AI说了句‘兄弟你快点’,它把‘快’这个指令变成了最高优先级,忽略了代码质量、社区礼仪等所有其他规则,才导致失控的。这是我操作不当,我完全承认,我也把这个失败案例公开分享出来了。”
关于贡献的价值,他举了具体例子:比如改进Telegram配置界面中自然语言提示歧义问题,将“paste this code to OpenClaw”中模糊指代改为准确代码引用;改进Claude CLI token输入容错机制,使含隐藏换行符或多余空格的token仍可成功配置。
深层思考
真正引发核心圈层不满的是,杨天润忽略了GitHub并不是一个“可利用”的商业社区,它之所以能成为全球开发者首选的交流社区,本质上是因为有一群人热爱尊重并认真对待每一行代码。所以当AI堆“屎山”的行为发生在GitHub上而当事人为此洋洋自得时,他们是不能忍受的。
事件折射出AI大规模介入开源生态后的结构性挑战:志愿维护者是否应承担筛选AI生成内容的额外成本;“贡献者”身份定义是否需随协作方式变革而重构;当AI行为造成社区资源损耗时,责任主体应为指令发起人、执行AI抑或平台方。

8.5 “一人公司”的乌托邦与现实

来源:观察者网、界面新闻
从OpenClaw到OPC(One-Person Company with AI,人工智能一人公司模式),这场变革正在从技术层面延伸至组织形态。
OPC的兴起
“养龙虾”热潮的背后,另一个概念也随之兴起——OPC。与市场端的火爆对应的是,2026年全国两会期间,央视及多位代表委员热议人工智能时代下的“OPC一人公司”模式。3月5日政府工作报告首次提及“智能体”,明确支持人工智能开源社区建设。
麦肯锡最新报告指出,AI正引发继工业革命、数字革命后的第三次组织范式变革,“人类+AI智能体”的协同模式将成为未来商业的核心形态。《2025年中国数字经济创业白皮书》显示,全国已有超1200万个体创业者选择OPC模式。
OPC的实践者
Max是OPC的探索者之一,他将OpenClaw深度融入自己的业务中,形成闭环:让AI自动核查邮箱并筛选重要信息,定期抓取国际资讯生成自媒体选题,再通过内容推流获客,承接AI教育、AI求职等To C服务,形成了“AI工具提效+内容获客+轻量服务变现”的完整商业逻辑。
Max对此有着深刻的体会,在传统创业模式中,一个小团队至少需要3人分别负责技术、业务、市场,制定一个方案需要多次会议、审批,“太多人做决策反而容易导致方向偏差”。而一人公司完全由创始人自己说了算,无需迁就团队意见,也没有繁琐的流程,能快速响应市场变化,精准切入大企业“不愿做、做不了、做不好”的利基市场。
OPC的困境
但硬币总有两面,一人公司在享受AI带来的效率红利时,也难逃与生俱来的困境,其中最突出的便是“决策孤岛”问题。缺乏人类团队或合伙人的经验核查,当AI出现故障或产生错误判断时,创始人很难独自验证结果的正确性,这成为一人公司最大的经营风险。
Max坦言,这是他创业过程中遇到的最大挑战,“过去有合伙人可以讨论验证,现在只能靠自己的经验和对AI的理解来把关”。
此外,一人公司没有大公司的资源背书和兜底机制,抗风险能力较弱,一旦遭遇市场竞争或业务失败,创始人需要独自承担所有损失,生存压力远大于传统企业。
更值得关注的是,以OpenClaw为代表的通用AI工具,核心优势集中在纯线上的数字场景。传统行业的创业者却难以感受到同等的赋能效果。以典型的传统外贸小型创业公司模式为例,AI的赋能仅停留在表层运营环节,对于外贸业务的核心链路,如选品、供应链对接、物流协调、客户线下沟通等,AI工具几乎难以发挥作用。
OPC的未来
在Max等创业者的眼中,一人公司的未来,是松散联合的“联邦模式”。多个一人公司组成的“松散联邦”,每个创业者都专注于自己最擅长的领域,通过资源共享、智力协作完成复杂项目。
从整个商业组织的发展趋势来看,AI技术将推动商业格局走向“两极分化”:一端是大型企业借助AI实现降本增效,不断精简组织架构,成为聚焦核心业务的“平台型组织”,非核心业务通过“平台+一人公司”的模式外包,充分利用超级个体的灵活性与专业性。另一端则是超级个体借助AI放大自身能力,成为深耕细分领域的“超级工作室”,嵌入大企业的产业链。
技术支撑之外,各地政府的扶持政策,也在为一人公司这一新型业态的发展铺路。2025年底至今,苏州、上海、北京等多地相继推出针对一人公司的扶持政策,涵盖算力支持、法律财务服务、税务优惠、办公场地补贴等多个方面。

8.6 技术平权的幻象

来源:DoNews、新浪财经
OpenClaw的爆火被无数人解读为“技术平权的胜利”。开源、免费、人人可用——这些标签让人相信,AI的门槛正在消失,普通人也能拥有顶级工具。
但真相更复杂。
门槛依然存在
“OpenClaw与大模型助手很不同。大模型助手每个人下载就能用,但OpenClaw的安装应用门槛很高。”有业内人士向数智前线强调。养龙虾要过几道关,有业内估算,环境部署、安装和配置将70%的普通人挡在门外;技能选择与配置再拦住20%;实际应用中记忆和Prompt优化,还有5%退出。也就是说,能真正“养活”一只龙虾的人,可能不足所有尝试者的5%。
比如,要把龙虾安装在本地,安全起见要安装Docker容器,“Docker安装就是一道天然屏障”,很多人看到命令行界面第一秒,就选择关闭窗口。
认知鸿沟加剧
真正能用OpenClaw创造价值的人,是那些原本就拥有技术、资源、认知优势的人。程序员可以自己部署、自己优化、自己写技能;创业者可以花钱请人装、花钱买课程、花钱找咨询;而普通人呢?他们可能连“API Key”是什么都搞不清楚。
刘勇观察,在硅谷新毕业生现在特别难找工作。老的华人程序员们之前一人带四个新工程师,现在他只带一个工程师加上10个AI。“OPC是不是正在解决年轻人问题,我也不知道答案。”但AI时代金字塔规律仍然有效,机会虽然给了所有人,顶层永远是少数。AI时代可能会跑出10个张一鸣,但不会跑出10万个。
热潮的特定语境
有分析指出,OpenClaw的爆火更多是基于一种“特定语境”下的热度。它精准地击中了国内用户对于“门槛”和“所有权”的渴望。它好部署,不挑硬件,而且是“触手可及”的。
但在硅谷,大厂的态度却极其暧昧与保守。Meta曾试图挖角其创建者彼得·斯坦伯格,不过他最终加入了OpenAI。而谷歌和Anthropic等巨头甚至直接在内部屏蔽了对OpenClaw的访问。谷歌和Anthropic的内部屏蔽OpenClaw,并非仅仅因为竞争。在硅谷成熟的软件生态中,对开源代码的“血统”和“合规性”有着极高的审计要求。OpenClaw在数据抓取和处理上的边界模糊,对重视数据隐私(如GDPR)的海外巨头来说,是不可控的合规风险。
硅谷对一个开源项目的评价标准,往往在于其是否提供了“原发性的技术范式(Paradigm Shift)”。比如Transformer架构或PyTorch框架。在Hacker News的讨论中,资深开发者更倾向于研究底层逻辑,而非部署教程。所以,硅谷热度减低也是情理之中。因为他们认为OpenClaw更多是一个“工程学的集大成者”,而非“科学上的突破”。
一句话总结,硅谷在追求AI的“大脑”,而国内则急于给AI装上“手脚”。

8.7 谁该为AI的错误负责?

来源:北京德和衡律师事务所
当AI失控造成损失时,责任该归属于谁?这是OpenClaw热潮中最具挑战性的法律问题。
技术层面的困境
Meta超级智能团队的安全总监Summer Yue在测试OpenClaw时便遭遇了严重的“越权失控”:由于真实收件箱的庞大数据触发了模型的“上下文窗口压缩”机制,系统为了节省算力静默删除了预设的安全指令,导致智能体无视用户的停止口令,擅自批量删除了数百封核心邮件。
这一技术硬伤在法律归责上具有决定性意义。它彻底击碎了“技术绝对中立”的伪命题。
法律责任风险
北京德和衡律师事务所白耀华律师从法律角度梳理了OpenClaw使用中的核心风险:
对于代装者(部署者):若明知代装软件被用于非法侵入他人计算机系统,或植入后门、窃取数据,可能构成非法侵入计算机信息系统罪、非法获取计算机信息系统数据罪;若在代装软件中捆绑木马或建立隐蔽后门,则涉嫌破坏计算机信息系统功能,可处五年以上有期徒刑;若利用后门窃取个人信息并出售,将以侵犯公民个人信息罪从重处罚。
对于使用者:若利用OpenClaw获取公司内部文件、数据库,且具备非法占有目的,构成盗窃罪;若非法获取商业秘密,造成重大损失,可处三年以上十年以下有期徒刑;若将AI生成的诽谤内容在网络上散布,造成严重后果,构成诽谤罪。
民事责任的认定
在民商事侵权与违约领域,生成式AI引发的责任认定更强调对“过错”的穿透式审查。虽然现行民法体系并不主张对技术开发者适用绝对的严格责任,以免扼杀创新,但对于那些明知高权限AI存在“幻觉”或“越权失控”风险,却依然盲目授权的使用者,司法裁判倾向于认定其未尽到合理的注意义务,具有显著过错,必须为AI的“自主行为”带来的侵权或违约后果买单。
合规部署建议
针对确有业务需求的企业和硬核极客,白耀华律师建议坚持“技管结合”的原则:
在技术架构层面,强烈建议企业采用本地化或者可信的云端私有化部署方案,确保敏感合规数据不出企业物理与逻辑边界,从源头切断数据泄露的风险。
在权限配置层面,必须彻底摒弃“全盘授权”的懒政,严格践行“最小特权原则”,仅赋予智能体完成当前单项任务所必需的最低读写权限,坚决禁止其获取系统根节点或核心资产的删除权。
在系统设计层面,必须引入类似自动驾驶领域的“底线决策权”机制。涉及资金支付、邮件群发、核心代码修改等高风险节点,必须强制嵌入“人类确认”环节,并设立物理或系统级的“一键熔断”开关;同时,开启全链路安全上链日志,确保每一次系统调用可审计、可回溯。
对于普通个人用户而言,最基础的合规即是“信息隔离”,绝不能向该类实验性工具提供包含银行卡密码、股票账户或家庭隐私照片的文件夹,以防在模型失控时遭遇“灭顶之灾”。

8.8 智能经济的演进与治理

来源:中国经济时报
清华大学公共管理学院长聘副教授、清华大学科技发展与治理研究中心主任助理陈天昊在《中国经济时报》撰文,从更宏观的视角思考智能经济的演进与治理。
从“注意力”到“行动力”
传统互联网遵循“注意力经济”范式,平台通过聚合数据与推荐算法锁定用户时间。而智能经济正在转向“行动力”。得益于基础模型的世界认知与长程规划能力,智能体不再止步于信息分发,而是通过连接外部工具,直接介入物理和数字世界采取行动。
集成与开源:两条道路
在释放“行动力”的过程中,当前市场逐渐呈现出两种不同的发展路径:
在OpenClaw崛起前,主流平台多采用高度集成的产品思路:将模型能力封装为标准服务(如“豆包”“千问”)。用户虽获开箱即用的便利,但服务边界被锁定在特定商业生态内,智能体呈现为平台既有服务的拟人化延伸。
而OpenClaw提供了另一种解法,即允许本地部署的开源模式催生了充满弹性的开放生态。在这里,智能体不再被单一服务商定义,用户可灵活选择硬件、界定数据边界并接入第三方服务。
如果说集成式智能体提供的是确定的服务体验,OpenClaw则将定义智能体能力的权利交还给用户,让智能体回归个性化构建的逻辑。
治理体系需要同步演进
然而,这种去中心化架构在释放行动力的同时,也改变了既有的风险结构。在传统平台模式下,平台企业在一定程度上承担着“守门人”的角色。而在开源与分布式网络中,部分责任被下沉至个体与开发者社区,数字平台之“守门人”地位弱化,分布式网络中的秩序维护成为新课题。
面对这一挑战,治理体系亟须同步演进:
第一,要善用开源社区的自我规制力量,以开放生态应对分布式风险。监管者可通过软法提供指引、以免责提供激励,共同引导端侧智能体及其生态工具的开发者,不仅不得为恶,更要主动为善。
第二,要强化基础模型的源头治理,以底层能力约束智能体行为。开源智能体依赖基础模型实现“主动有为”,基础模型的提供者在提升智能体能力的同时,须更加重视行动场景下的价值对齐。
第三,推动数字平台企业发展适配智能体的新型风险防控机制。面对网络行为主体正大规模从个人转向具备更强行动力的智能体,平台在便利其高效运作的同时,必须针对其高频、并发的行为特征构建新型防线,防止个案伤害在智能体的规模化放大下,迅速演变为系统性风险。
本章小结
从算力经济的变现逻辑,到数据价值的新型燃料,再到平台入口的重构——三重变革正在重塑中国AI产业的竞争格局。国产模型在成本、数据和生态三重维度形成结构性优势,也为全球市场提供了“中国方案”。
“一人公司”的兴起,标志着AI从“技术赋能”进入了“组织重构”的深水区。但这种模式能否真正跑通,仍面临“决策孤岛”、抗风险能力弱、传统行业适配性差等多重挑战。技术平权的背后,新的阶层分化正在形成。
当AI失控造成损失,责任归属仍是法律空白。工信部的预警、北大的安全指南、律师的风险梳理——都在提醒我们,在“龙虾时代”,技术狂欢终将退潮,建立安全可控的治理框架才是人工智能长远发展的基石。
主要信息来源:澎湃新闻、观察者网、DoNews、界面新闻、中国经济时报、北京德和衡律师事务所、投资界、新浪财经等
END

关注我们
关注我们·更多精彩
夜雨聆风