千万颗Graviton,Meta AI基建狂飙
公众号记得加星标⭐️,第一时间推送不会错过。

Meta 正借助数千万颗亚马逊Graviton处理器核心,全面扩容人工智能基础设施。作为全球科技行业的头部企业之一,Meta 在社交平台运营、虚拟现实、人工智能研发等多个领域均有着庞大的算力需求,此次大规模部署Graviton芯片,被业内视为其强化 AI 基础设施布局的关键举措。
亚马逊第五代Graviton芯片,可为 Meta 持续增长的 AI 业务提升最高 25% 的运行性能,这一性能提升将直接转化为 Meta 各类 AI 应用的响应速度优化、处理效率提升,为全球数十亿用户带来更流畅的使用体验。
Meta 已达成合作协议,将部署数千万颗亚马逊云Graviton处理器核心,搭建支撑下一代人工智能体系的算力底座。在当前人工智能技术飞速发展的背景下,算力作为核心生产要素,其供给能力直接决定了企业 AI 研发与应用的上限,Meta 此次大手笔投入,正是为了抢占 AI 技术竞争的制高点。
尽管GPU仍是大模型训练的核心硬件 —— 其在并行计算、浮点运算等方面的优势使其能够高效处理模型训练过程中海量的数据计算任务,但各大企业如今正大量加码中央处理器CPU算力,用于 AI 推理、实时逻辑运算、搜索服务、代码工具以及多智能体 AI 任务。这一趋势的背后,是 AI 应用场景的不断丰富,从传统的模型训练延伸至实时交互、复杂任务执行等多元化场景,而 CPU 在任务调度、逻辑判断、低延迟处理等方面的特性恰好能够满足这些场景的需求。
亚马逊表示,本次将率先落地数千万颗Graviton芯片核心,并可根据 Meta 后续 AI 算力需求持续扩容。这一灵活的部署方案,既能够快速满足 Meta 当下的算力缺口,又为其未来 AI 业务的规模化扩张预留了充足的算力空间。
这批芯片将为Meta 全系平台、数十亿用户使用的各类 AI 服务提供算力支撑,涵盖社交平台的智能推荐算法、虚拟现实产品的实时渲染、智能客服的语音交互、内容审核的 AI 识别等多个核心场景。
此举也反映出行业对定制化自研芯片的需求持续攀升—— 这类芯片能够在超大规模算力场景下,兼顾性能输出、成本控制与节能降耗。随着全球科技企业对 AI 投入的不断加大,算力需求呈现爆发式增长,传统通用芯片在能效比、成本控制等方面逐渐显现短板,定制化自研芯片凭借针对性的设计,能够更好地适配特定业务场景的需求,成为行业发展的重要趋势。
CPU 算力竞赛正式开启
亚马逊云Graviton芯片是基于 ARM 架构自研的服务器处理器。ARM 架构以其低功耗、高性价比的特性,在移动设备、嵌入式系统等领域早已得到广泛应用,而亚马逊将其引入服务器芯片领域,通过深度优化,打造出了兼具性能与能效优势的Graviton系列芯片。
相较传统服务器芯片,它能以更低功耗、更低成本,更快运行云端各类业务负载。最新的第五代Graviton芯片采用 3 纳米制程工艺,单颗搭载 192 核心。3 纳米制程作为当前半导体行业的先进工艺,相较于更成熟的 5 纳米、7 纳米制程,在芯片集成度、性能提升、功耗降低等方面均有着显著优势 —— 更小的制程能够在同样大小的芯片上集成更多的晶体管,从而提升芯片的运算能力,同时降低单位运算的能耗。
亚马逊称,其综合性能较上一代提升最高25%;缓存容量更是前代的五倍,核心间数据交互延迟最高降低 33%。缓存容量的提升与数据交互延迟的降低,对于 AI 系统的运行效率至关重要,能够减少数据在核心间传输的等待时间,让多核心协同工作更加高效。
对于需要同步处理海量数据、并发调度多任务的AI 系统而言,这一优势至关重要。以 Meta 的智能推荐系统为例,其需要实时分析数十亿用户的行为数据,快速生成个性化的推荐内容,Graviton芯片的高性能与低延迟特性,能够确保推荐系统在处理大规模数据时依然保持流畅的响应速度。
Graviton处理器搭载亚马逊自研的 Nitro 软硬件系统,全面强化安全防护、网络传输与综合运行性能;Nitro 系统通过硬件加速、隔离技术等手段,能够有效提升服务器的安全性,防止数据泄露与恶意攻击,同时优化网络传输效率,减少数据在云端传输过程中的延迟与损耗。同时支持弹性结构适配器技术,可实现大规模服务器集群间的低延迟通信。在超大规模算力集群中,服务器之间的通信效率直接影响整体算力的发挥,弹性结构适配器技术能够打破服务器之间的通信壁垒,实现算力资源的高效调度与协同工作,为 Meta 这类拥有海量用户的企业提供稳定、高效的算力支撑。
人工智能需求格局迎来转变
随着AI 产品不断迭代,行业发展重心早已不再局限于模型训练。早期的 AI 发展主要聚焦于大模型的研发与训练,通过海量数据训练出具备强大认知能力的模型;而如今,AI 技术正从实验室走向实际应用,新一代智能体 AI 系统需要实时完成任务规划、代码编写、逻辑推理与指令执行,这使得 CPU 与 GPU 形成算力互补,CPU 需求大幅激增。CPU 负责统筹调度、逻辑判断等核心任务,GPU 则专注于并行计算、数据处理等高强度计算工作,二者的协同配合,能够充分发挥各自的优势,提升 AI 系统的整体运行效率。
亚马逊副总裁、首席工程师纳菲亚・布沙拉表示:“这不止是硬件芯片的升级,更是为客户搭建完整的基础设施底座,配套数据服务与推理能力,助力打造可理解用户需求、预判场景、服务全球数十亿人的规模化 AI 体系。” 亚马逊云全套 AI 技术栈涵盖了数据存储、算力调度、算法框架、模型部署等多个环节,与Graviton芯片形成了软硬件协同的生态体系,为企业提供端到端的 AI 解决方案。
Meta 坦言,在 AI 业务规模化扩张的当下,拓宽算力供给渠道已成为核心战略目标。随着 Meta 在 AI 领域的投入不断加大,其对算力的需求呈现指数级增长,单一的算力供给渠道已难以满足其业务发展需求,多元化的算力来源能够降低供应链风险,确保算力供给的稳定性与可持续性。
这份合作协议也凸显出:能效正成为AI 算力建设的核心考量指标。在算力需求爆发式增长的背景下,芯片能效直接决定企业运营成本、电力供给能力与可持续发展目标的落地。对于 Meta 这类拥有超大规模算力需求的企业而言,每提升 1% 的能效比,都能带来巨额的成本节约与碳排放减少;而对于全球科技行业来说,能效的提升也是推动 AI 技术可持续发展的关键,能够缓解算力增长带来的能源压力。








夜雨聆风