乐于分享
好东西不私藏

AI芯片的新战场

AI芯片的新战场

👆如果您希望可以时常见面,欢迎标星🌟收藏哦~

在人工智能(AI)快速从训练导向转向推理应用的关键转折点,Google正加速布局其自研芯片战略。最新消息指出,Google已与芯片设计公司Marvell展开合作洽谈,计画开发两款针对AI推理优化的新型芯片。此举不仅显示Google欲强化自有TPU(Tensor Processing Unit)体系,也反映出整体AI产业重心正由模型训练逐步转向实际应用与服务部署的趋势。

从产业角度观察,推理(Inference)正成为AI价值实现的核心环节。相较于一次性的模型训练,推理需要长期、大规模且即时的运算支援,直接影响成本结构与使用体验。 Google此番布局,意味着其希望在AI应用层面建立更具成本优势与效率优化的基础设施,同时也正式向长期主导AI芯片市场的NVIDIA发起更具体的竞争挑战。

根据目前释出的资讯,Google与Marvell讨论中的两款芯片具有明确分工。其一为「记忆体处理单元」(MPU),主要作为TPU的辅助元件,负责处理记忆体密集型运算,借此减轻主芯片负担并提升整体效率。此类架构代表AI芯片设计正逐步走向异质运算与模组化发展,透过专责单元分工来突破记忆体频宽与延迟瓶颈。

另一款芯片则是全新世代的TPU,专门针对AI推理任务进行设计。与现行TPU v7(Ironwood)相比,新一代产品将更聚焦于高频率、低延迟的推理场景,例如搜寻回应、生成式AI互动与企业API服务等。这种「训练与推理分流」的设计思维,显示AI硬体正进入更细分与专业化的发展阶段。

事实上,Google早已建立多元化的芯片供应链策略,除Marvell外,亦与Broadcom、MediaTek及Intel等合作伙伴共同发展不同功能的AI芯片。透过多供应商体系,Google不仅能降低对单一厂商的依赖,也可在成本、效能与产能之间取得更大的策略弹性,进一步强化其在AI基础设施领域的掌控力。

在市场竞争方面,NVIDIA仍凭借GPU与CUDA生态系在AI训练领域保持领先,但推理市场的特性截然不同。由于推理工作负载较为固定且可预测,专用ASIC芯片往往能提供更佳的成本效益。这使得Google等云端巨头有机会透过自研芯片,在特定场景中逐步取代GPU的角色。

需求端的变化亦支撑此一趋势。包括Anthropic与Meta等AI公司,已大规模采用Google TPU进行推理运算,甚至出现一次部署数十万至百万颗芯片的案例。这显示TPU已从Google内部工具,逐步转型为具备市场竞争力的商业化产品,并在AI云端服务中扮演关键角色。

然而,供应链限制仍是不可忽视的挑战。当前先进半导体制造产能紧张,无论是TPU或其他AI加速器,皆面临产能瓶颈问题。这也促使Google采取多元合作策略,并规划未来数年内的大规模出货计画,以确保其AI基础设施能持续扩张并满足市场需求。

此外,Google亦积极扩大TPU的应用场景与生态系,包括开放外部企业部署、支援主流AI框架(如PyTorch),以及允许客户在本地端部署TPU设备。这些措施有助于降低使用门槛,并提升TPU在企业市场中的渗透率,进一步与NVIDIA形成正面竞争。

从更宏观的角度来看,AI芯片产业正进入「多架构并行」的新时代。除Google外,Amazon、Microsoft等云端业者亦纷纷推出自研芯片,如Trainium与Maia,显示大型科技公司正试图透过垂直整合,掌握从模型到硬体的完整价值链。

在AI推理需求持续爆发的背景下,谁能在成本、效能与规模上取得优势,将可能决定未来AI产业的主导权。而Google透过多芯片路线与供应链分散策略,正逐步建立一套可与NVIDIA抗衡的体系,但最终成效如何,将取决于技术落地速度与产能供应能力。

(来源:半导体芯闻综合

点这里👆加关注,锁定更多原创内容

*免责声明:文章内容系作者个人观点,半导体芯闻转载仅为了传达一种不同的观点,不代表半导体芯闻对该观点赞同或支持,如果有任何异议,欢迎联系我们。

推荐阅读

10万亿,投向半导体

芯片巨头,市值大跌

黄仁勋:HBM是个技术奇迹

Jim Keller:RISC-V一定会胜出

全球市值最高的10家芯片公司

喜欢我们的内容就点“在看分享给小伙伴哦~