AI服务器专家交流-寒武纪/字节/华为昇腾/海光/阿里PPU/百度昆仑芯
会议要点
- 国产AI芯片出货与竞争格局
2026年寒武纪目标50万张卡,阿里PPU、昇腾、昆仑芯均有高出货规划,其中两家H开头的公司实现目标难度最大。阿里 PPU N+1 工艺已量产,N+2 工艺扩产依赖产能支撑,昆仑芯以海外流片为主,产品“小而美”且落地性强。 - 超节点与算力供应趋势
2025年超节点渗透率仅个位数,2026年预计升至10%-13%,2027年随场景拓展快速提升;英伟达H200国内供应存在版本代差,限制政策或定点放宽,国产芯片将持续承接算力替代需求。 - AI 服务器部件需求变化
短期低核心数 CPU 满足 AI 服务器需求,长期高核心数 CPU 需求显著提升;存储需求年增 10%-15%,短期 SSD 主导,长期冷数据需求推动 HDD 用量反超;CPU、存储涨价对高端 AI 服务器采购影响有限。
Q&A
Q: 2026年寒武纪、昇腾、阿里PPU、昆仑芯均有高出货目标,哪家厂商实现目标的难度最大?
A: 2026年寒武纪目标50万张卡,阿里PPU、昇腾、昆仑芯也设定了较高出货规划,其中阿里实现目标信心充足,研发与项目管理能力行业领先,昆仑芯供应链布局完善,难度较低。挑战最大的是H1公司和H2公司,H1需保障产品稳定性、应对大客户交付、技术迭代与供应链管控,多重压力叠加。H2公司虽架构与研发实力强,但项目经验集中在国央企与政府端,缺乏大型互联网客户服务经验,规模化落地过程中面临的困难更多,整体达成目标的不确定性更高。
Q: 阿里巴巴PPU芯片2026年制程工艺将处于何种状态,量产节奏如何?
A: 阿里 PPU 芯片拥有 N+1、N+2 两个核心版本,工艺与量产进度差异明显。N+1 工艺版本已实现稳定量产且出货规模可观,是当前主力出货型号。N+2工艺版本处于量产初期,短期产量规模有限,扩产节奏依赖南方产能支持,产能爬坡过程相对漫长,无法快速形成大规模出货能力。2026年PPU芯片仍以N+1工艺版本为主力,N+2版本逐步推进产能建设,整体出货规模稳步提升,支撑阿里算力基础设施建设需求。
Q: 昆仑芯目前国内外流片情况如何,产品定位与市场策略有何特点?
A:昆仑芯当前国内流片规模较小,核心流片环节仍在海外开展,短期与三星的合作保持稳定,不会出现重大变动。产品定位偏向“小而美”,实际使用表现与宣传指标匹配度极高,未过度夸大性能,研发重心聚焦产品本身打磨,供应链与配套体系形成闭环且完善。市场宣传策略稳健,区别于部分厂商重宣传轻体验的模式,凭借稳定的产品性能与完善的供应链,在国产AI芯片市场占据差异化优势,出货与落地进度稳步推进。
Q: 字节跳动自研AI芯片有哪些技术路线,各路线最新进展如何?
A: 字节跳动自研AI芯片布局三条并行技术路线,推进节奏差异显著。与海外博通的定制合作路线受外部限制,有一定影响,具体情况看原文。与国内厂商合作路线进展顺利,预计2026年第二、三季度推出首轮规模化产品。纯自研路线战略地位高,核心团队常驻新加坡,整合海外与国内大厂研发资源,推进节奏稳健。目前国内合作与纯自研路线均顺利推进,成为字节算力布局的核心支撑。
Q: H1公司在中芯国际的生产排单、流片到交付的整体节奏是怎样的?
A: N+1、N+2工艺均已打通,在南方地区生产流程运行顺畅,核心产品已实现流片。但产品良率仍存在明显挑战,整体产能处于紧缺状态,无法满足大规模出货需求。从晶圆投片到最终产品交付,全流程周期接近三个月,整体周期偏长,交付效率受限。良率与产能问题叠加较长的交付周期,直接影响其2026年规模化出货目标的实现,也是其面临的核心供应链难题。
Q: 国产AI芯片超节点当前渗透率如何?2026、2027年发展趋势与客户接受度怎样?
A:2025年国产卡超节点渗透率仅为个位数,处于低位水平,多数厂商持保留态度,核心原因是价格偏高,且大厂担忧核心技术被供应商掌控。2026年渗透率预计提升至10%-13%,不会出现爆发式增长,仅实现温和提升。2027年渗透率将迎来快速提升,核心驱动力是价格下降、大厂自研能力落地,以及应用场景从推理拓展至轻度训练,国产单卡性能较弱的背景下,超节点可降低训练门槛,客户接受度将大幅提升。
Q: 2026年英伟达H200到货量与供应限制,会对国内大模型发展产生哪些影响?
A: 2026年国内大厂因 CUDA 生态技术惯性,仍会采购 H200 芯片,但普遍认为依赖英伟达模式不可持续。若下半年出现新供应限制,国内大模型训练算力将受到直接影响,延缓模型迭代进度。大厂判断未来供应限制将持续存在,国内可获得的英伟达芯片版本会落后海外一到两代,性能存在明显代差。即便有供应限制,大厂仍会通过自研或外部合作突破算力瓶颈,国产芯片替代将成为长期核心方向。
Q: 若国产模型与海外差距拉大,NVIDIA H200等高端GPU进口限制是否可能放宽?
A:高端GPU进口限制存在放宽可能性,但不会以公开、大规模的形式全面放开。未来放宽形式更倾向于定点定向,仅面向特定客户、重点行业或头部大型厂商开放,不会面向全市场普及。这种放宽方式既能缓解部分高端算力需求压力,支持重点大模型研发,又能避免全面放开带来的行业依赖问题,兼顾算力需求与供应链安全,是行业判断的主流政策走向。
Q: 当前AI服务器CPU、存储等关键部件供需、价格及国内可获取性如何?
A: AI 服务器 CPU、存储等关键部件存在涨价情况,但行业技术发展趋势不会改变,对整体出货量影响有限。高性能 AI 服务器如搭载 H200的机型,对部件需求具备刚性,即便每卡需配置40GB 存储,厂商仍会持续采购,模型研发回报远超部件涨价成本。搜索、广告、推荐等场景服务器对涨价敏感度更高,采购决策更为谨慎。国内市场部件可获取性稳定,厂商通过采购策略调整、配置取舍应对涨价,保障AI服务器生产交付。
Q: 当前 AI 服务器对 CPU 核心数的需求如何,未来高核心数 CPU 需求将怎样演变?
A:现阶段AI服务器对CPU核心数需求集中在Agent 场景的沙箱维护、任务调度、指令传输,低核心数CPU即可满足基础需求,算力消耗处于较低水平。长期来看,随着AI应用持续演进,大量运算任务将拆分至CPU执行,复杂Agent 场景需管理数百上千个模型,维持长时间沙箱环境,会大幅提升CPU资源消耗。多模态模型落地后,需数小时至十几小时持续计算,对高核心数CPU的依赖程度将显著提升,需求规模相应扩大。
Q: AI服务器存储需求现状与未来趋势如何,SSD与HDD需求将如何分化?
A:当前AI行业对存储依赖度极高,智能体记忆功能成为核心发展方向,推动存储需求持续增长,预计未来需求量年增10%-15%,数据存储从冷热分层转向个人智能体海量数据永久存储。产品需求分化明显,短期SSD需求占据主导地位,适配热数据高速读写需求。长期来看,冷数据存储需求急剧增加,HDD凭借成本优势,需求量有望超越SSD,成为增速更快的存储品类,存储市场结构将逐步向HDD倾斜。
Q: 2026至2027年寒武纪面临的核心挑战有哪些,竞争优势如何?
Q: 平头哥是否从台积电获取产能,短期竞争力与国内其他厂商相比如何?
Q: 寒武纪2026年预估55万片总产能中,是否包含海外代工产能,海外产能分配情况如何?
Q: 字节、阿里、腾讯等厂商在AI服务器CPU核心数、存储类型需求上有何差异?
Q: 超节点渗透率提升的核心驱动力是什么,2027年为何会迎来快速增长?
如需获取完整纪要,关注公众号后私信小编加入知识星球。

夜雨聆风