乐于分享
好东西不私藏

谷歌最新AI芯片落地,英伟达的神话要结束了?——拆解"去英伟达化"背后的芯片冷战

谷歌最新AI芯片落地,英伟达的神话要结束了?——拆解"去英伟达化"背后的芯片冷战

引子

4月22日深夜,硅谷传来了一条不算喧嚣却暗流涌动的消息:谷歌发布了新一代AI训练与推理专用芯片,同时推出了全新的液冷散热系统和AI超级计算机架构,可以将数千颗TPU互联形成大规模计算集群。

英伟达的创始人黄仁勋大概没有想到,2026年春天,围绕AI芯片的格局正在发生一场静默但剧烈的地震。

而这场地震的余波,比你想象的要深远得多——它关乎你未来使用的每一个AI产品、每一笔账单、甚至你自己的工作会不会被重塑。


一、本周科技热榜:AI芯片,正在悄悄占据头条

先来梳理本周(4月17日至23日)科技圈的十大热点:

  1. 谷歌发布新一代AI芯片
    ,液冷技术降温20度以上,再度向英伟达发起挑战
  2. 马斯克将特斯拉支出计划提高至250亿美元
    ,加倍押注AI
  3. 腾讯混元Hy3 preview发布并开源
    ,国产大模型加速迭代
  4. Momenta完成约5亿美元Pre-IPO融资
    ,自动驾驶”独角兽”秘密启动IPO
  5. “AI办事”对外开放
    ,千问首接东方航空,AI Agent正式进入服务行业
  6. 腾讯阿里正洽谈投资DeepSeek
    ,资本涌入推理型AI
  7. 高德汽车出行AI Agent发布
    ,智能座舱迈入AI Native时代
  8. 华为乾崑智驾累计辅助驾驶里程达100亿公里
    ,预计10月超越特斯拉
  9. 鸿蒙智行一季度交付11.27万辆
    ,年底布局2459+家门店
  10. GPU股票有望创史上最长连涨纪录
    ,受AI乐观情绪推动

乍一看,这条新闻热榜涵盖了AI大模型、自动驾驶、智能座舱、AI Agent落地、芯片等多个方向。但如果你拨开这些表层话题,会发现一个共同的底层脉络——所有人都在抢同一块蛋糕:算力。

大模型要算力,自动驾驶要算力,AI Agent要算力,智驾系统也要算力。而算力的”卖铲人”,在过去三年里只有一个名字:英伟达。

但今天,铲子不只在英伟达一个人手里卖了。


二、”去英伟达化”:这不是一道选择题,而是一道生存题

英伟达的”垄断”有多恐怖?

截至2026年初,英伟达在AI训练芯片市场占据着超过85%的份额。它的H100和B200系列GPU,几乎是所有大模型训练的事实标准。

这听起来像是一个商业成功案例。但对科技巨头来说,这是噩梦。

第一个噩梦是价格。 英伟达H100的单价一度炒到3万美元以上,B200更是定价6万美元起步。训练一个顶级大模型,光GPU硬件成本就高达数亿美元。更可怕的是议价能力——你不是在买技术,你是在乞求供应链。

第二个噩梦是产能瓶颈。 2024年到2025年,英伟达GPU的订单排队时间长达6到12个月。OpenAI、微软、谷歌——这些全球最聪明的公司,都得按”英伟达给的号码”排队等芯片。

第三个噩梦是地缘风险。 英伟达虽然是美国公司,但它的供应链管理、制造环节高度全球化。一旦国际形势生变——比如类似2025年伊朗冲突期间霍尔木兹海峡封锁那样的黑天鹅事件——任何芯片运输中断,都可能让数亿美元在建的AI项目瞬间停摆。

科技巨头们忍不了了

于是,一个”去英伟达化”(De-NVIDIA-fication)的运动在硅谷和全球科技圈悄然展开。

谷歌:TPU帝国。 谷歌其实是AI芯片的老兵了。它的张量处理单元(TPU)从2016年开始研发,如今已经是第五代。谷歌自家几乎所有的AI服务——搜索、Gmail的AI功能、YouTube推荐、Google Translate——都跑在TPU上。4月22日发布的新一代芯片,进一步缩小了与英伟达的差距,甚至在某些AI推理任务上实现了反超。

亚马逊:Graviton与Inferentia。 亚马逊云(AWS)有自己的定制AI芯片线。Inferentia系列主打推理场景,价格比英伟达GPU便宜40%以上。据AWS内部数据,客户通过迁移到Inferentia,AI推理成本平均下降了3.3倍。

微软: Maia芯片。 微软正在自主研发Maia系列AI芯片,目标是把Azure云上的AI算力从英伟达依赖中逐步剥离。微软与OpenAI的绑定,让这套芯片计划的重要性非同寻常。

苹果:M系列之后是Apple Silicon AI。 从Mac到iPhone,苹果已经在消费端证明了定制芯片的强大能力。现在,苹果正在为数据中心级别的AI芯片投入重金,预计2026年下半年推出第一代用于数据中心AI训练的定制芯片。

中国方面: 华为昇腾、寒武纪、地平线等中国AI芯片公司,在英伟达H100被部分禁运后,实际上已经承担了国产替代的主力角色。昇腾910C的性能据业内评估已达英伟达A100的90%以上,而价格仅为其一半。


三、为什么”芯片自主”比你想的更紧迫

液冷技术的突破:算力革命的隐形推手

这次谷歌发布的一个关键细节被很多人忽略了:第四代液冷散热系统

AI芯片功耗越来越高了。英伟达B200的单芯片功耗达1000瓦——相当于一台微波炉持续运行。传统的风冷散热已经逼近物理极限。谷歌的液冷技术将芯片温度降低了20度以上,大幅提升了能效比。

这意味着什么?意味着AI算力中心的运营成本正在经历一场结构性下降。一个典型的拥有数万颗GPU的AI数据中心,电费是一笔天文数字。液冷技术的普及,将直接拉低AI推理和训练的单位成本,这对你和我意味着——AI服务可能会变得更便宜、更普及。

从”硬件军备竞赛”到”成本革命”

当每个科技巨头都有自己的芯片时,竞争就不再仅仅是谁买的GPU更多,而是谁的芯片更高效、能耗更低、成本更可控。

这是一个从”军备竞赛”到”效率竞赛”的范式转变。

对普通用户而言,这场转变最直接的体现是:

  • AI对话更便宜了:
     当你使用ChatGPT、通义千问、文心一言等AI服务时,它们背后的推理成本正在被自有芯片逐步压降。这意味着免费额度可能扩大,付费套餐可能降价。
  • AI落地更广泛了:
     芯片成本下降 → 中小企业用得起算力 → 更多垂直行业AI应用涌现。你所在行业出现的”AI+XX”,大概率就源于这波成本红利。
  • 创新不再被锁死:
     当算力不再是少数巨头的专利,创业公司和独立开发者也能低成本获取AI能力。下一个改变世界的AI应用,可能来自一个车库里的团队。

四、中国玩家的角色:不是追随者,是破局者

回顾全球”去英伟达化”进程,中国公司的角色正在发生关键转变。

从被动替代到主动定义

2022年英伟达对华出口管制升级后,华为、寒武纪、摩尔线程等中国芯片公司曾一度陷入”被动追赶”的焦虑中。但到了2025-2026年,情况发生了变化:

昇腾910C已经能训练主流大模型。 华为昇腾910C在多项基准测试中达到了英伟达A100的90%以上性能,而价格仅为40%-50%。更关键的是,华为推出了完整的软件栈(CANN),降低开发者迁移门槛。

阿里平头哥的含光系列、百度昆仑芯也在迭代。 中国云计算巨头已经建立了自己的AI芯片产品线,并大规模部署于自家云平台。

芯片股持续走强。 本周科技热榜中有一条:”芯片股有望创史上最长连涨纪录,受AI乐观情绪推动。”这说明资本市场已经用真金白银投票——AI芯片赛道是未来十年最确定的增长方向之一。

但隐忧也存在

中国AI芯片仍面临两大挑战:

  1. 制造工艺瓶颈:
     最先进的AI芯片依赖7nm及以下工艺,而高端光刻机(EUV)依然受限。这意味着国产芯片在密度和能效比上仍需追赶。
  2. 软件生态薄弱:
     英伟达CUDA生态经过十余年积累,拥有数百万开发者。国产芯片的软件栈要吸引开发者迁移,不仅需要技术替代,更需要生态建设。

五、”AI办事”:芯片革命的日常显影

本周另一个重磅消息:千问总裁吴嘉宣布”AI办事”对外开放,首家接入东方航空。

听起来像是新闻简报里的一行字,但如果你理解了”去英伟达化”的大背景,就会发现它背后的逻辑链条。

“AI办事”意味着什么?意味着AI不再只是”陪聊”或”写文案”的工具,而是开始执行真实任务——订机票、做调度、管流程。这些任务的背后,是海量AI推理请求的并发。

而支撑这些推理请求的,正是”去英伟达化”运动正在重塑的算力基础设施——更便宜的芯片、更低的成本、更灵活的部署。

换句话说:当”去英伟达化”最终拉低算力成本之后,AI才能真正从”高科技玩具”变成”日常工具”。

你每天用的导航、外卖推荐、银行风控、医疗诊断……这些AI服务的价格和质量,都取决于这场芯片战争的结局。


六、未来展望:AI芯片的”战国时代”

如果把AI芯片的发展史画一条曲线,大致是这样:

  • 2012-2017:GPU时代。
     英伟达在深度学习爆发中一炮而红。
  • 2017-2022:ASIC崛起。
     谷歌TPU、AWS Inferentia等专用芯片开始分羹。
  • 2022-2025:H100时代。
     英伟达H100几乎垄断了AI训练芯片市场。
  • 2026-2029(现在正在发生):战国时代。
     谷歌、亚马逊、苹果、微软、华为、寒武纪……所有科技巨头都有自己的AI芯片。GPU不再是唯一答案。
  • 2029-2035:量子+硅基混合架构?
     量子计算在特定任务上的突破,可能带来又一次颠覆。

在这场竞争中,没有赢家通吃。原因有三:

第一,AI需求的多样性。 训练需要大规模并行计算,推理需要低延迟低功耗,边缘设备需要极致能效。没有一种芯片能通吃所有场景。

第二,生态壁垒。 每个芯片厂商都会建设自己的软件生态。开发者的习惯一旦形成,迁移成本极其高昂。这注定是多平台共存。

第三,地缘博弈。 AI芯片已经成为大国竞争的核心领域。各国都有自己的芯片战略和安全底线。


七、给我们每个人的启示

1. 对求职者

AI芯片产业链正在创造大量新岗位——芯片架构师、编译器工程师、AI系统调度、液冷散热工程师、芯片EDA工具开发……如果你考虑职业转型,这些方向值得关注。

2. 对创业者

算力成本下降意味着你的创业门槛在降低。一个5人的小团队,现在可以用过去100人公司才能负担的AI算力。关键不再是”买得起算力”,而是”想得出用算力的场景”。

3. 对普通用户

你不需要懂芯片,但你应该知道:未来三年,AI服务的成本结构将发生剧变。 更多的功能将免费开放,更好的模型将更便宜地部署,你的每一个AI交互产品都可能迎来一波”性能提升+价格下降”。


结语:铲子不止一把,但 gold rush 还没结束

2026年的今天,英伟达依然是AI芯片领域的王者——但其王座已经不再稳固。

谷歌、亚马逊、苹果、微软……这些巨头不再甘心做一个”听话的买家”。它们开始自己造武器,自己建工厂,自己定价。

而在中国,华为昇腾、阿里平头哥、寒武纪等公司正在完成从”国产替代”到”全球竞争”的转身。

这就像一场芯片界的”战国时代”。没有哪个国家或企业能独霸天下。竞争将降低成本、催生创新、加速应用的普及。

而你我,都是这场变革的受益者。

至少,从这个意义上来讲——

去英伟达化,不是谁的末日,而是算力民主化的开始。


互动话题:
你觉得AI芯片的未来会是”群雄并起”还是”最终还是会统一到一两家巨头”?如果你是一名开发者,你最希望哪家公司的芯片平台成为主流?为什么?

欢迎在评论区留下你的看法 👇