
2026年,AI行业正在经历一场由数据量爆炸引发的计算力革命。智能助手(Agent)的广泛使用和各种多类型应用的爆发,推动了对计算力的需求从“主要靠训练”转向“训练和推理两手抓”。全球计算力市场进入了一个短期看起来够用、但长期肯定不够用的失衡状态。当“囤积显卡”不再是核心优势后,计算效率、成本和能否成功商业化赚钱,就成了AI基础设施领域下半场竞争的关键。商汤科技通过“大装置-模型-应用”三者结合的战略,率先探索出了一条优先考虑效率、并且能真正实现自我造血(赚钱)的新路子,为行业提供了一个可以借鉴的中国式解决方案。
一、数据量井喷:算力危机从“够不够用”变成“用不用得起”
AI应用从简单的“聊天”发展到实际“做事”,彻底改变了计算力的消耗方式。作为大模型处理信息的最小单位,Token的使用量爆炸式增长:到2026年3月,中国每天处理的Token量超过140万亿个,两年增长了上千倍;一个智能助手任务消耗的Token是传统对话模式的4倍,多个智能助手协同的系统更是高达15倍。有预测显示,到2030年全球活跃的AI智能助手将达到22.16亿个,每年消耗的Token量将从2025年的一个极小数字激增到15.2万Peta Tokens,对计算力的需求也跟着成几何级数增长。
需求端猛增,供给端却面临硬性限制。2025年中国用于AI的算力增长了119%,短期看供给充足,但长期缺口正在加速显现。2026年是计算力需求转型的关键一年,推理任务所占的比重快速上升,预计到2027年推理负载将占到70%,那种能应对高并发、低延迟需求的推理算力成了稀缺资源。全球供应链紧张、核心芯片受限,再加上电力成本不断上涨,直接引发了算力涨价潮:亚马逊AWS、谷歌云率先调价,国内阿里云、腾讯云等主流GPU算力服务价格也上涨了15%-34%,算力从“战略资源”彻底变成了“财务成本”。
行业的焦虑也因此升级:从“抢芯片”变成了“算成本”。大量AI初创公司陷入了“算力拿不到、用不起、用不好”的三重困境——GPU供给向大客户倾斜,初创公司加钱都难求;芯片利用率低导致资源浪费,固定的算力配置难以应对推理任务时高时低的波动;持续上涨的推理成本,更成了吞噬利润的“财务黑洞”。这标志着AI产业正式告别了“用低价换规模”的粗放时代,进入了靠价值定输赢、靠效率定生死的精细化运营新阶段。
二、竞争逻辑变了:从“堆硬件”到“追求极致计算效率”
过去,算力竞争的核心是比谁芯片多、集群规模大;现在,赛道已经转向如何让每颗芯片、每度电、每个Token的价值最大化。计算效率低下成了行业的普遍痛点,有些智算中心的GPU利用率连50%都不到,加剧了资源浪费和结构失衡。未来AI基础设施的核心竞争力,将集中在三个方面:
1. 整合不同种类算力的能力:不依赖单一芯片,能统一调度和高效使用不同品牌、不同架构的芯片;
2. 计算与电力协同的水平:打通算力和能源系统,实现“算力跟着电力走、电力配合算力用”,降低单位算力的能耗成本;
3. 全链条的效率优化:从底层的算力调度、中层的模型训练推理到上层的应用落地,形成闭环的效率体系。
这一转变背后,是AI产业从技术驱动到商业驱动的本质升级。大模型技术越来越同质化,模型能力不再是决定性的差异,真正的比拼在于能否用低成本、高稳定的方式支撑海量数据的持续处理。有研究指出,大模型已进入“2.0时代”,核心是强化学习的广泛应用和推理侧算力占主导,算力的性价比、功效比成了企业构建护城河的关键。
三、商汤大装置:用效率重新定义算力基础设施
在行业普遍为算力焦虑的时候,商汤科技跳出了“囤卡竞赛”,用全套AI基础设施加上深度商业化的组合拳,验证了效率优先这条路是可行的。2025年商汤全年总收入增长33%超过50亿元,下半年更是实现了上市后首次EBITDA和经营性现金流双双转正,自我造血能力落地,这正是“三位一体”战略成功兑现的表现。
1.技术底座:异构混训+算电协同,解决算力供给瓶颈
商汤大装置的核心竞争力,在于软硬件深度协同、算力和电力一体化的底层架构。面对国产芯片生态碎片化的难题,商汤联合华为昇腾、海光、寒武纪等十几家厂商打造了“算力超市”,率先完成了昇腾384超节点的全面适配,实现了用上万张国产GPU卡进行异构混合训练,算力利用率达到80%、效率达到同构训练的95%,彻底打破了单一GPU供给的限制。
更具前瞻性的是算力和电力的协同布局。商汤与宁德时代合作,打造了全球首个打通“算力管理-数据中心运营-储能系统”的AI智能系统,通过能源大模型精准预测电力负载,动态生成最优调度策略;临港的AIDC算电协同平台实现了算力与能源的精准匹配,为大规模智算中心低碳运营提供了样板,将数据中心从“耗电大户”变成了“能源调节器”。
2.模型赋能:原生适配+极致优化,提升单位算力产出
作为“最懂大模型”的算力基础设施,商汤大装置实现了算力与模型的深度结合。依托步数蒸馏、极致量化等技术,LightX2V世界模型推理系统在国产硬件上实现了对海外顶尖芯片的性能超越,开源模型HuggingFace下载量破千万、稳居全球前十;国产世界模型“开悟2.0”完成了在国产算力集群上的全流程训练,成为首个在国产芯片生态上实时生成动态场景的世界模型——SenseCore商汤大装置。
大装置全年支撑了近百万项模型研发任务,在权威机构“性能优化”和“大模型训推”这两个核心维度上获得了满分评级,稳居中国全栈AI云服务市场前四、原生AI云厂商首位,构建起了“算力-模型”双向赋能的技术壁垒。
3.商业闭环:弹性服务+生态赋能,解决行业落地痛点
针对AI企业面临的算力难题,商汤推出了弹性算力+4S全周期赋能方案:通过秒级的弹性扩缩容,实现算力成本与业务规模的精准匹配,低谷时缩减、高峰时扩容;整合十多年的AI经验,从联合解决方案、专家服务到战略协同,帮助企业一次性解决“用得起、拿得到、用得好”的问题。
在商业化层面,商汤大装置已经成为科研机构、互联网巨头、大模型独角兽的核心伙伴,帮助五粮液、中铁设计院等企业部署了行业大模型;AI原生应用深入泛办公、金融、智能营销等领域,与值得买科技合作实现了电商运营效率数倍提升;X创新业务覆盖了智能驾驶、家用AI机器人等场景,2025年收入超过3亿元,形成了“基础设施-模型-应用”的全链条商业闭环。
四、下半场趋势:普惠算力+生态协同,定义产业新标准
2026年,AI基础设施的竞争格局已经很清晰:谁能掌控效率,谁就掌控未来。OpenAI前首席科学家Ilya Sutskever和黄仁勋都明确表示,AI竞赛不再是比拼原始算力,而是效率和商业化。未来行业将呈现三大趋势:
1.算力公共化:算力像电网一样成为普惠的基础设施,集中式的公共算力和分布式的私域算力并存,模型即服务(MaaS)平台成为连接训练与推理的核心载体;
2.国产算力主导:芯片限制加速了国产替代进程,预计到2030年国产AI芯片市场占有率有望达到60%-70%,异构混合训练成为主流架构;
3.算电一体化:算力和电力协同上升为国家战略,源网荷储一体化、绿电直供成为智算中心的标配,单位算力的能耗持续下降。
商汤的实践证明,AI基础设施的终极价值,不是“拥有多少算力”,而是“让每一份算力产生最大价值”。即将推出的第二代NEO架构全新基础模型,将验证原生多模态架构下理解与生成统一的新“尺度定律”,实现效能与性价比的倍数级提升,持续巩固效率壁垒。
五、最后
算力紧缺的窗口期,正是AI基础设施行业洗牌的机遇期。当Token成为衡量价值的新标尺,当效率成为核心竞争力,行业将彻底告别“烧钱换增长”的模式,转向精细化运营、商业化兑现的健康轨道。以商汤为代表的中国企业,凭借全栈技术创新和深度的产业协同,正在重新定义AI基础设施下半场的规则——效率为王,商业为本,生态制胜。未来,只有构建起“计算效率-成本控制-商业化”闭环的玩家,才能在数据量爆炸的时代站稳脚跟,引领全球AI产业迈向高质量发展的新阶段。

夜雨聆风