要搞懂这场龙虾风暴。或者说,得先看一组让人睡不着觉的数字。2026年,字节、阿里、腾讯三家加起来,预计花超过600亿美元,成千上万张AI加速卡被拉进数据中心,但如果没人调用,它们每天就在那烧钱。绝大部分砸向算力。往深了讲,它们是沉默的、燃烧现金的机器,腾讯2025年实际资本开支只有79亿人民币,低于内部预期,核心原因就是拿不到足够的先进芯片。2026年腾讯计划大幅追加算力投资。字节更是激进,2026年资本开支目标达到250亿美元。过去两年,大模型的主流玩法是“聊天”,用户偶尔让它写封邮件、画张图,消耗的Token很少。这种轻度使用,根本填不满那些算力集群的运营成本。更别说从习惯免费的普通用户身上赚钱。巨头们急需一个能持续、自动消耗算力的Token黑洞。各有说法。OpenClaw正好长在了这个需求上。用户给它一个复杂指令,它不会只回一段话,会拆任务、联网搜、调软件、纠错、重试,一个复杂任务跑下来,Token消耗量是普通对话的百倍甚至千倍。每一步都在向云端发请求。确实是这样。有AI行业解读师告诉印象观察所。国产模型被OpenClaw大量取用,核心原因是性价比。比海外便宜得多,调用起来不心疼。便宜直接转化为更高频的调用,和更可观的现金流。可见一斑。这解释了为什么腾讯愿意倒贴人力去线下摆摊。每一次部署,都是在用户的电脑或云端里,埋下一台24小时运转的算力抽水机。不管前端跑的是什么模型,只要推理和工具调用的API指向自家云服务,那些微小的请求,最终都会汇聚成真金白银。让人深思。一组更直观的数据能帮我们理解这波操作的经济账。OpenClaw的重度用户,日均Token消耗量在3000万到1亿之间。后者的月费也就20美元,而一个活跃的OpenClaw实例,一天就能吞掉上百倍的Token。就算用国产的MiniMax M2.5,也要42到140美元,以我的经验,这远远超出了ChatGPT那种对话场景。如果用Claude Opus 4.6算,一天的费用在900到3000美元。各有道理。