当前时间: 2026-05-05 08:05:23
更新时间: 2026-05-05
分类:软件教程
评论(0)
AI推理时代,云厂商的资本开支还能换来利润吗?
这是”AI Agent经济学”系列的第三篇。前两篇分别讨论了AI Agent如何重新分配科技产业链的价值,以及推理时代中国算力链的机会与约束。这一篇进入第二层:云厂商。
2026年,AWS、微软、谷歌三大云厂商的AI资本开支合计追踪到数千亿美元量级。亚马逊一个季度花了442亿美元建基础设施,自由现金流从去年同期的260亿美元塌到了12亿——几乎把赚到的每一块钱都投了回去。阿里巴巴宣布三年AI基础设施投入超过3800亿元人民币,目标是五年内云和AI收入从1000多亿人民币增长到1000亿美元。
过去十年,云厂商已经证明了一件事:大规模资本开支可以变成好生意。建数据中心、买服务器,然后长期卖标准化的计算和存储资源——毛利率60%以上,客户迁移上来就很难离开,续费率极高。传统云的逻辑是:花大钱建基础设施,然后靠规模效应和客户黏性,把资本开支慢慢变成持续的利润。
传统云卖的是通用计算资源——CPU、存储、网络带宽。产品标准化,边际成本低,规模效应强。客户租了云服务器,怎么用是客户自己的事,云厂商只管提供稳定的基础设施。
推理时代不一样了。企业使用AI Agent,不是租一堆GPU自己搭环境,而是通过API直接调用模型服务。AWS的Bedrock、阿里云的百炼、Google Cloud的Vertex AI——这些平台把模型推理包装成了按调用计费的服务。云厂商从基础设施的提供者,变成了模型服务的分发平台。
从”卖资源”到”卖服务”,听起来是升级。但升级不一定意味着更赚钱。
传统云的成本结构相对可预测。CPU和存储是成熟的硬件,价格稳定、使用寿命长、负载分配灵活。推理负载的成本结构要复杂得多:GPU贵且折旧快,一颗H100采购价2.5到3万美元,使用寿命约三到五年,而且模型迭代可能让上一代硬件提前过时;推理利用率波动大——AI Agent的调用量有高峰有低谷,不像传统云负载那么平稳;每次推理调用的计算量差异也远大于传统云任务,很难做标准化的容量规划。
简单说,传统云的资本开支投下去,回报曲线是可预测的。推理时代的资本开支投下去,回报曲线要模糊得多。 推理负载的毛利率能不能做到传统云60%以上的水平,目前没有人能给出确定的答案。
云厂商应对这个问题的核心策略是自研芯片。谷歌的TPU、亚马逊的Trainium、阿里的平头哥——逻辑都一样:用自研芯片替代英伟达GPU跑推理,把单位推理成本压下来。Anthropic已经宣布计划在谷歌的Ironwood TPU上部署最多100万颗芯片用于推理,成本优势被认为可达英伟达GPU的数倍。自研芯片能不能规模化地降低推理成本,直接决定了云厂商的推理业务能不能达到传统云的毛利率水平。
传统云时代,软件公司是云的客户,关系清晰——你开发软件,我提供基础设施,各赚各的钱。推理时代,这个关系变得模糊了。
Anthropic是AWS最大的AI客户之一,同时也在直接向企业卖API——某种意义上绕过了云的分发。OpenAI刚刚宣布在AWS上扩展1000亿美元的承诺,但它同时也是微软Azure的核心合作伙伴,而且自己也在直接面向企业销售。云厂商自己也在做模型——谷歌有Gemini,阿里有Qwen——同时平台上又托管竞争对手的模型。
“既是客户又是对手又是合作伙伴”——这种关系在传统云时代不存在。 它带来的风险很直接:云厂商不能确定自己是推理价值链上的终点站还是中间商。如果模型公司越来越多地直接面向企业销售,云厂商就有可能被降格为纯基础设施——赚的是最薄的那一层利润。
传统云的竞争相对简单:数据中心够大、价格够低、服务够稳定就能赢。推理时代,竞争的核心维度变了——你平台上有多少好模型、推理延迟多低、开发者工具多好用、和企业的现有系统能不能打通。
这就是为什么AWS拼命签下Anthropic和OpenAI,为什么阿里拼命做Qwen开源再导流到百炼平台——它们争夺的不只是算力份额,而是AI服务的入口位置。 谁的模型生态更丰富、开发者体验更好,谁就更有可能把一次性的推理调用变成长期的平台黏性。
以上是推理时代的新挑战。美国三大云厂商目前交出了什么样的答卷?
一句话概括现状:推理需求确实在转化为收入,但资本开支的增速比收入增速更快。
最能说明这个矛盾的是亚马逊。AWS最新季度收入375.9亿美元,同比增长28%,是15个季度以来最快的增速。Bedrock推理平台处理的Token总量超过了此前所有年份的总和——这说明AI推理需求不是空转,是真金白银的客户在用。但同一时期,亚马逊的自由现金流从260亿美元塌到了12亿。钱赚到了,但更多的钱花出去了。
微软和谷歌的处境类似。微软AI年化收入突破370亿美元,但资本开支维持在极高水平。Google Cloud积压订单达到4600亿美元,看起来未来收入有保障,但这些订单要兑现,需要先建出对应的基础设施。
目前的数据表明一件事:推理时代的云收入是真实的,但”资本开支能换来利润”这个判断还不能下。 基础设施投入有一到两年的滞后效应——今年建的数据中心,明后年才会满载产生收入。微软预期Azure增速下半年还会加速。所以现在下结论太早。接下来几个季度是关键:收入增速能不能追上资本开支增速,追上了路径就是通的,追不上就是在透支。
同样的问题放到中国市场,阿里云是最值得观察的样本。它在模型(Qwen)、推理平台(百炼)、自研芯片(平头哥)、云基础设施四个层面都有布局,是中国云厂商中全栈布局最完整的一家。
从数据看,阿里云确实在加速。最新季度收入432.84亿元,同比增长36%。AI相关产品收入连续十个季度三位数增长。百炼MaaS平台的Token消耗规模在三个月内增长了6倍。在中国AI云市场,阿里云的份额约37%,超过第二到第四名的总和。吴泳铭给出的目标是:五年内云和AI收入从1000多亿人民币增长到1000亿美元,复合年化增长约47%。
这个目标能不能实现,取决于一个核心问题:“开源模型+百炼平台”这条路,能不能走通MaaS的商业闭环。
阿里和美国云厂商在模型策略上走了不同的路。AWS的策略是绑定头部闭源模型——签Anthropic、签OpenAI——让它们的模型跑在自己的平台上,头部模型自带流量和客户,上量快,但利润要和模型公司分,而且对模型公司有依赖。阿里的策略是自己做开源模型,用开源建开发者生态,然后把开发者引导到百炼平台上消耗Token。Qwen全球下载量超3亿、衍生模型超10万个——生态规模已经起来了。
但开源模型本身不赚钱。 赚钱靠的是开发者从GitHub下载Qwen之后,选择在百炼平台上部署和调用。从开源下载到平台调用到持续付费,中间每一步都有流失。百炼MaaS三个月Token消耗涨了6倍,说明转化正在发生。但这个转化率能不能持续提升、百炼能不能成为阿里云最大的收入引擎,是千亿美元目标最关键的变量。
围绕这个核心问题,阿里云还面对几个特殊的约束条件。
阿里云季度收入约60亿美元,AWS是376亿——差了六倍。云是规模效应极强的生意,阿里云还没走到规模效应充分释放的阶段。在这个阶段大举投入资本开支,利润恢复的节奏会比美国同行慢。
2026年3月,阿里云宣布AI算力和存储产品最高涨价34%——从降价抢客户转向涨价变现,说明AI推理需求已经强到客户愿意接受涨价。但华为云、腾讯云、字节的火山引擎都在争同一个市场,价格战随时可能回来。能不能把涨价维持住,本质上取决于阿里云的AI服务是不是真的做到了让客户离不开。
AI Agent的落地效率高度依赖企业IT系统的开放程度。美国企业的SaaS生态成熟,API接口丰富,AI Agent可以很快接入。中国很多企业还在用封闭的定制化系统,云化率低于美国。这既是AI Agent渗透的阻力,也可能是阿里云最大的长期机会——如果它能用AI Agent本身来推动企业上云。阿里发布的企业级AI平台”悟空”内置到2000多万企业组织的钉钉中,走的就是这条路:不只是卖云服务,而是帮企业同时完成信息化和AI化的升级。 这条路如果走通,建立的壁垒会比纯卖算力高得多。
过去十年,云厂商的逻辑很清晰:资本开支换规模,规模换成本优势,成本优势换利润。只要需求持续增长,这条链条就能顺利运转。
但推理时代,这条链条中间多了几层变量。GPU的折旧周期、芯片代际切换、推理负载的利用率、Token价格的竞争、模型公司的分成结构——这些因素叠加在一起,让“资本开支→利润”的路径变得更长,也更不稳定。
云厂商不再只是证明“有没有需求”,而是要证明:这些需求能不能在价格、成本和利用率的约束下,沉淀为利润。
最终的分野在于:云厂商能不能从”卖GPU时间”升级为”卖AI服务生态”。 前者是资源生意,利润空间有限,受制于GPU成本和竞争压价。后者是平台生意——企业在你的平台上调用模型、部署Agent、沉淀数据和工作流,用得越久越离不开。前者的壁垒靠规模,后者的壁垒靠生态,深度完全不同。
AWS的Bedrock一个季度处理的Token量超过此前所有年份总和,阿里云的百炼三个月Token消耗涨了6倍。升级正在发生。但到目前为止,没有一家云厂商能证明推理业务的利润率可以比肩传统云。这个证明做出来之前,所有的资本开支都还是一个未兑现的承诺。
下一篇进入产业链的第三层:模型公司。它们在AI Agent场景下展现了极强的定价权,但竞争和开源正在逼近。前沿模型的定价权能持续多久?