乐于分享
好东西不私藏

免费陷阱!OpenClaw三周吸粉25万,用户装完AI自动养龙虾,巨头却靠算力抽水机收割千亿市值,谁才是真正的养虾人?

免费陷阱!OpenClaw三周吸粉25万,用户装完AI自动养龙虾,巨头却靠算力抽水机收割千亿市值,谁才是真正的养虾人?

摘要:腾讯阿里排队给用户装开源AI智能体OpenClaw,三周星标破二十五万。国产模型低价API引爆Token黑洞,用户免费供给轨迹数据。背后是算力抽水机和数据探测器的隐秘布局。三千六百亿美元Agent算力市场。更确切地说,正在袭来,中美AI竞争进入新阶段。

炸裂开局 排队装AI巨头免费打工

深圳南山区腾讯总部大厦北广场排起长队,有人抱着NAS,有人拎着迷你主机,还有人掏出MacBook。他们是来让腾讯工程师帮忙装一个叫OpenClaw的开源AI智能体,预约号上午11点就抢光了。队伍里有程序员,也有小学生。抖音上,“全民养龙虾”的短视频刷屏。在我看来,这场景像极了十年前安卓刷机的极客聚会,但这次,普通人也挤进来了。
腾讯没在搞行为艺术。同一时间,阿里推“OpenClaw一键上云”。小米宣布把自家的MiclawAgent塞进手机、汽车、电视里。智谱、MiniMax这些模型厂商也跟上。OpenClaw在GitHub上的星标,三周破了25万,超过了Linux三十年的积累,一个绕不开的问题浮出水面。为什么是现在,为什么是中国?为什么所有巨头都这么急?

算力抽水机 便宜API背后的经济账

要搞懂这场龙虾风暴。或者说,得先看一组让人睡不着觉的数字。
2026年,字节、阿里、腾讯三家加起来,预计花超过600亿美元,成千上万张AI加速卡被拉进数据中心,但如果没人调用,它们每天就在那烧钱。绝大部分砸向算力。往深了讲,它们是沉默的、燃烧现金的机器,腾讯2025年实际资本开支只有79亿人民币,低于内部预期,核心原因就是拿不到足够的先进芯片。2026年腾讯计划大幅追加算力投资。字节更是激进,2026年资本开支目标达到250亿美元。
过去两年,大模型的主流玩法是“聊天”,用户偶尔让它写封邮件、画张图,消耗的Token很少。这种轻度使用,根本填不满那些算力集群的运营成本。更别说从习惯免费的普通用户身上赚钱。巨头们急需一个能持续、自动消耗算力的Token黑洞。各有说法。
OpenClaw正好长在了这个需求上。用户给它一个复杂指令,它不会只回一段话,会拆任务、联网搜、调软件、纠错、重试,一个复杂任务跑下来,Token消耗量是普通对话的百倍甚至千倍。每一步都在向云端发请求。确实是这样。
有AI行业解读师告诉印象观察所。国产模型被OpenClaw大量取用,核心原因是性价比。比海外便宜得多,调用起来不心疼。便宜直接转化为更高频的调用,和更可观的现金流。可见一斑。
这解释了为什么腾讯愿意倒贴人力去线下摆摊。每一次部署,都是在用户的电脑或云端里,埋下一台24小时运转的算力抽水机。不管前端跑的是什么模型,只要推理和工具调用的API指向自家云服务,那些微小的请求,最终都会汇聚成真金白银。让人深思。
一组更直观的数据能帮我们理解这波操作的经济账。OpenClaw的重度用户,日均Token消耗量在3000万到1亿之间。后者的月费也就20美元,而一个活跃的OpenClaw实例,一天就能吞掉上百倍的Token。
就算用国产的MiniMax M2.5,也要42到140美元,以我的经验,这远远超出了ChatGPT那种对话场景。如果用Claude Opus 4.6算,一天的费用在900到3000美元。各有道理。

如果未来一两年,有100万个OpenClaw实例跑通商业模型,哪怕只是勉强回本,也会新增约3600亿美元的Agentic AI算力市场,这个数字足以重塑整个半导体产业链的供需格局。AI的商业变现,不再靠让更多人聊天,靠让更少的Agent持续做事。Token经济学的核心正在转变。从低频、低量的人机对话,转向高频、高量的机器自主执行。耐人寻味。

数据饥渴 轨迹数据的隐秘战场

越过现金流,巨头们力推本地Agent,还有一层更深远的战略意图,争夺下一代大模型进化所需的核心燃料,也就是任务轨迹数据。
过去几年,大模型竞争的核心是算力和训练数据。如果继续只喂这些静态文本,大模型只会变成一个更博学的书呆子,却迈不进真正能行动的AGI门槛。但业内有个共识:互联网上高质量的公开文本—维基、新闻、论文—,已经被各家模型吃得差不多了,下一代模型需要的,是人类在数字世界里怎么做事的数据。严格来说,也就是任务轨迹数据。
依我之见,这种数据记录的是一条完整的任务链路,从理解需求到搜信息,再到调工具、填表单、完成支付,每一步都留下痕迹。对训练Agent模型来说,这种数据比普通文本值钱得多,因为它反映的是现实世界里的行动逻辑和因果推理。而这恰恰是巨头们过去最难搞到的数据。它们藏在无数个割裂的软件、封闭的App和企业内网深处,就算搜索引擎的爬虫再厉害,也爬不进去。不无道理。

部署在用户终端的OpenClaw,就是深入这些数据腹地的探测器。当用户让Agent操作时,它会忠实地记录每一个操作意图和软件交互轨迹。

当然了,更关键的是,用户在指导它、纠正它错误的过程中,其实是在免费为厂商提供最高质量的强化学习数据。OpenClaw中国社区经理Alan Feng说:“用户装完往往期待魔法般的自动化,但真正的价值在于定义清晰的任务。轨迹数据的反馈能让模型一再优化,厂商才能持续提升代理实力。”
这场分布式的数据众包,和特斯贯穿过几百万辆电动车收集路况数据反哺FSD算法的逻辑如出一辙。”谁掌握最多的轨迹数据。谁就能率先训练出真正长出手脚的超级模型。阿里Qwen项目的一位内部人士坦言:“中国领先新范式的概率低于20%,但通过Agent轨迹数据,能快速打磨模型、缩小差距。颇有道理。

低价生态 中国为何成为OpenClaw热土

OpenClaw是个全球性的开源项目,但在中国的热度远超其他市场。这不只是偶然。中国有全球最大的开发者社区之一,对开源工具的接受度和传播速度极快。
更紧要的是,中国的大模型生态,形成了一种独特的“低价API”格局。国产模型的API调用价格,大约是海外同类产品的六分之一,这背后是国内推理算力成本的结构性优势。包括更便宜的电力、更灵活的硬件配置(有的厂商甚至用消费级的5090显卡跑推理),以及模型厂商之间激烈的价格战。
这种低成本结构。让OpenClaw在中国的运行成本远低于海外,也吸引了大量用户涌入。从深圳公务员的“龙虾上线”到抖音上的全民刷屏,OpenClaw的传播路径已经越过了技术圈,演变成一场全社会层面的AI启蒙运动。当部署几乎零成本时,普通人对错失AI大潮的焦虑感被彻底点燃。公众认知从AI搜索推向Agent执行。
面对这个局面,美国2025年曾放松部分管制,批准英伟达H20向中国出口。话说回来,但2026年1月AI OVERWATCH法案在众议院外交委员会通过,要求国会审查对华AI芯片许可证。2月Applied Materials因违规出口被罚2.52亿美元。中国巨头通过OpenClaw推动国产模型调用,可以间接降低对海外先进芯片的依赖,加速国内算力生态的内生循环。难以断言。
同时,国产模型的Token出海也在加速。OpenRouter最新数据反映。国产模型的Token消耗占比,已经从2024年底的2%飙到了39%。出海策略是把推理算力留在中国,走蒸馏数据和低价API路线。推理对带宽要求不高,延迟感知也不明显。这种“算力在国内、服务在全球”的模式,正让中国AI产业链在全球Token市场中占据越来越重要的位置。