
当黄仁勋在GTC 2026上喊出“到2027年Blackwell+Vera Rubin收入达1万亿美元”时,整个科技圈意识到:AI的“推理时代”已不再是概念,而是一场正在席卷全球的算力海啸。
引爆这场海啸的,是AI智能体OpenClaw。它让Token消耗量从“涓涓细流”变成“滔天洪水”——单次会话中,上下文累积消耗占比高达40%-50%。北美五大CSP为此狂砸资本开支,2026年合计达7295亿美元,同比激增超60%,较2023年增长3.5倍以上。
更令人意想不到的是,这场算力竞赛的“新边疆”已延伸至太空。英伟达悄然发布Space-1 Vera Rubin Module,将数据中心级AI计算送入卫星和轨道数据中心,开启“在轨推理”时代。
从地面到太空,从GPU到LPU(语言处理单元)——当推理吞吐量每瓦特提升35倍、H200月租金环比暴涨25%-30%时,AI算力的下一个黄金十年,已然拉开帷幕。

01
AI处理器
1)概述
AI处理器是AI算力的核心,由GPU、CPU、LPU等芯片构成。英伟达通过其Vera Rubin平台展示了下一代AI处理器的发展方向,包括专为推理优化的Rubin GPU、Vera CPU以及全新的Groq 3 LPU(语言处理单元),形成了异构计算架构,以满足AI推理时代对低延迟、高吞吐量的需求。
同时,太空算力的新场景——英伟达发布的“Space-1 Vera Rubin Module”,旨在将数据中心级AI计算能力部署到卫星和轨道数据中心。
2)关键解读
技术迭代与异构计算:AI推理工作负载(特别是智能体)对低延迟要求极高。Rubin GPU擅长处理预填充和注意力机制,而新引入的Groq 3 LPU凭借其超高的片上内存带宽和确定性执行架构,专门加速解码环节。二者协同工作,可实现推理吞吐量每瓦特提升35倍。
太空算力新场景:英伟达发布的“Space-1 Vera Rubin Module”是专为太空环境设计的AI计算机。它瞄准了在轨推理、实时地理空间智能和自主航天任务等应用,标志着AI算力从地面向太空延伸,开启了太空数据中心的新纪元。
未来路线图:英伟达预告了2028年的Feynman架构,将采用3D芯片堆叠技术和定制化HBM内存,算力将持续升级,为超大规模AI计算奠定基础。
3)核心公司
海外:英伟达 (NVIDIA)
国内:海光信息、寒武纪、壁仞科技、沐曦股份、天数智芯、芯原股份、龙芯中科、中国长城(飞腾信息)
02
服务器整机
1)概述
2)关键解读
高景气与扩产:头部AI服务器厂商(如鸿海、纬创、广达)在2026年加速扩产,尤其以美国为核心基地。AI机柜/服务器出货量预计实现倍数级增长,行业产能接近满载,反映了下游需求的极度旺盛。
技术壁垒提升:Vera Rubin平台采用MGX模块化机架,通过坚固的PCB中板实现无电缆、无软管、无风扇的布局,将计算托架的组装时间从近两小时缩短至五分钟,维护效率提升20倍。这种高度集成和模块化的设计大大提升了机架级系统的技术壁垒。
面向未来的机架:为突破容量限制,英伟达推出新一代Kyber机架,采用垂直插入设计和后置立式中板,使单一NVLink域内的GPU数量翻倍,为下一代Feynman架构的超大规模计算铺平了道路。
3)核心公司
海外:鸿海、纬创、广达
国内:中科曙光、浪潮信息、工业富联、华勤技术、紫光股份、联想集团、软通动力、烽火通信、中国软件国际
03
服务器组件
1)概述
2)关键解读
散热:Vera Rubin平台机架(如LPX机架)采用全液冷设计,MGX机架也实现了无风扇布局。随着芯片功耗和机架功率密度的持续提升,液冷散热已成为高功率AI服务器的标配,相关需求爆发。
存储:AI推理进入新一轮存储超级周期。Rubin平台的总Fast Memory(GPU+CPU可高速访问内存)用量较Blackwell平台翻倍,达到75TB。HBM4将于2026年量产出货,同时企业级SSD需求旺盛。三星、SK海力士、美光等厂商均将产能向HBM和企业级SSD倾斜,机构普遍看涨2026年存储价格。
网络:英伟达在GTC 2026推出了全球首个共封装光学(CPO)以太网交换机,通过去掉DSP芯片来降低功耗和延迟。CPO技术有望在未来的Scale-up和Scale-out网络中广泛应用,成为降低数据中心能耗和延迟的关键技术。
连接与PCB:MGX机架采用基于PCB的背板连接技术,容纳了数千根线缆,对PCB的层数、材料以及高速连接器的性能提出了更高要求。
3)核心公司
散热:曙光数创、英维克、飞荣达、申菱环境、高澜股份、同方股份
存储:兆易创新、佰维存储、东芯股份、江波龙、德明利、朗科科技
网络:中际旭创、新易盛、天孚通信、华工科技、中兴通讯、锐捷网络、盛科通信
电源:麦格米特、欧陆通、中国长城
连接:澜起科技、华丰科技、鼎通科技、沃尔核材
PCB:沪电股份、胜宏科技
04
算力租赁/云计算
1)概述
2)关键解读
资本与算力绑定:2026年,英伟达先后向CoreWeave和Nebius各投资20亿美元,支持这两家公司合计部署超过10GW的算力。这种“投资+采购”的模式不仅保障了英伟达芯片的销售,也加速了大规模AI算力基础设施的建设。
供需失衡与涨价:截至2026年2月底,H200月租金环比上涨25%-30%。海内外云服务商(如亚马逊、谷歌、腾讯、阿里)均开启了算力相关服务的涨价潮,涨幅最高达100%以上。这直接验证了算力资源依然紧缺的行业逻辑。
成熟商业模式:算力租赁市场已形成以“2-5年承诺制合同”为主、按需付费为辅的成熟商业模式。承诺制合同为客户提供了稳定的算力保障,也为服务商提供了可预期的现金流,支撑其大规模基础设施投资。
3)核心公司
海外:CoreWeave、Nebius
国内:协创数据、宏景科技、网宿科技、金山云、智微智能、首都在线、优刻得
05
数据中心
1)概述
2)关键解读
高密度与液冷化:以Vera Rubin NVL72机架为例,其重量相当于一辆皮卡车,集成了130万个独立组件和近1300个芯片,功率密度极高。这迫使数据中心必须采用液冷等高效率散热方案来维持稳定运行。
太空数据中心探索:英伟达发布的“Space-1 Vera Rubin Module”是构建轨道数据中心(ODC)的关键一步。将AI计算能力部署到太空,可以为全球提供实时的地理空间智能、支持自主航天任务,并可能在未来作为地面数据中心的重要补充,实现更低延迟的全球覆盖。
基建需求旺盛:北美五大CSP(亚马逊、微软、Meta、谷歌、甲骨文)2026年合计资本开支预计达7295亿美元,同比增速超60%,绝大部分投向AI算力。这些巨额资本开支将直接转化为对数据中心基础设施的采购需求,包括土地、建筑、供配电、制冷等。
3)核心公司
海外:亚马逊、微软、Meta、谷歌、甲骨文
国内:云赛智联、世纪互联、大位科技、润泽科技、光环新网、奥飞数据、数据港
- End -
点击下方卡片关注财研社 加★星标★ 私信获取完整研报 

夜雨聆风