OpenAI 离开 Azure:微软独家协议破裂,AWS 抢下 GPT-5.5
━━━━━━━━━━━━━━━━━━━━━━━━━
2026年4月27日,微软和 OpenAI 共同宣布修订双方合作协议。一纸声明,结束了一场维持多年的独家联姻。
从声明本身看,修订条款相当直白:微软继续保持 OpenAI 的”主要云合作伙伴”地位,OpenAI 产品将在 Azure 优先上线——除非微软无法或选择不支持相应能力。在此前提下,OpenAI 可以向任意云服务商提供产品。微软此前向 OpenAI 支付的收入分成取消。OpenAI 继续向微软支付分成至2030年,但设置了上限。
这背后的真实故事,远比公报措辞复杂。
理解这次分手,需要回溯微软与 OpenAI 合作的原始逻辑。
微软在2019年向 OpenAI 投资10亿美元,随后在2023年追加数十亿美元,投资的核心交换条件是:OpenAI 所有产品必须通过 Azure 对外提供服务。这为 Azure 带来了一个任何竞争对手都无法复制的差异化优势——唯一能提供 GPT 系列模型的云平台。客户想要调用 GPT-4或更高级模型?没有选择,只能用 Azure。这个护城河帮助 Azure 在与 Google Cloud 和 AWS 的竞争中争取到了大批企业客户。
但这个模式从一开始就埋下了矛盾的种子。随着 Claude 等竞争对手的崛起,企业客户的最大诉求变成了”我要在我已有的云上跑最强模型”,而不是”我要换云去用最强模型”。Anthropic 正是抓住这一点,通过首先登陆 AWS 和 Google Cloud,快速抢占了大批企业客户。当企业已经在用 AWS 运行数据库和机器学习工作流时,让他们为了用 GPT-5去单独开通 Azure,是很高的摩擦成本。Stratechery 的分析一针见血:Azure 的独家性是以牺牲 OpenAI 的增长潜力为代价的,而 Anthropic 趁机用”在哪都能用”的策略填补了市场空白。
OpenAI 显然早就意识到了这个问题。据 Stratechery 报道,这次合作的推动者正是 OpenAI CEO Sam Altman 本人。他在接受采访时明确表示:”OpenAI 的重心将转向 AWS”,并与 AWS CEO Matt Garman 一同出现在亚马逊官方声明中。对于 OpenAI 来说,放弃 Azure 独家的短期收入,换取接触 AWS 庞大企业客户基础的机会,是一笔合算的账。AWS 是全球最大的云服务商,拥有数百万企业客户,这个分发渠道的价值远超 Azure 独家的那点溢价。
对于微软来说,虽然失去了独家性,但修订后的协议实际上改善了 Azure 的财务表现——不再需要向 OpenAI 支付收入分成,这让 Azure 的 AI 服务利润率更健康。同时,微软依然是 OpenAI 的主要云合作伙伴和产品优先上线平台,依然是最大股东,还保留了 AGI 条款(已做修订)。这个结果算不上失败,只是从”完全掌控”变成了”深度合作”。微软 CFO 心里可能松了一口气:没了收入分成义务,Azure 的 AI 业务 P&L 会好看很多。
【GPT-5.5 上 AWS,意味着什么】
这次发布的核心产品有三个层面,每个层面都指向同一个趋势:AI 能力正在从独立产品变成企业基础设施。
第一层是 GPT-5.5 模型登陆 Amazon Bedrock。对于已经使用 AWS 的企业,这意味着他们可以在不切换云平台的情况下,直接通过 Bedrock 的统一 API 调用 GPT-5.5,并且与 Anthropic 的 Claude、Meta 的 Llama、Cohere 等模型放在同一界面里比较和选用。AWS 强调,所有模型使用统一的身份管理(IAM)、统一的加密标准、统一的日志记录(CloudTrail)和统一的合规框架——企业不需要为 AI 单独建立一套新的安全体系。采购流程也一并简化:直接用已有的 AWS 账单结算,不需要单独签一个 OpenAI 的合同。对于大型企业,这一点的吸引力可能比模型性能本身更大。
第二层是 Codex 登陆 Bedrock。Codex 是 OpenAI 的编程辅助工具,目前每周有超过400万开发者使用,覆盖写代码、重构、解释系统、生成测试等场景。现在企业可以在 AWS 环境里直接调用,无需通过 OpenAI 单独订阅,更重要的是可以直接走已有的 AWS 采购流程和预算。对于 IT 预算审批流程漫长的大型企业,这解决了 AI 编程工具落地的一个实际障碍。
第三层是 Amazon Bedrock Managed Agents,这是最值得关注的新产品。它基于 OpenAI 模型,让企业可以构建能够”跨系统执行多步骤工作流”的 AI 代理——不只是回答问题,而是真正替代人类在企业软件中完成操作。AWS 做了一个很实际的定位:这不是给个人用的 ChatGPT,而是给企业用的”数字员工”,可以在现有工作流里承担具体任务。OpenAI CEO Altman 在采访中说,Managed Agents 的目标是”让 AI agent 从演示走向生产”——而 AWS 的企业客户基础是实现这个目标的最佳土壤。
【AI 竞争的下一章:从模型能力到生态整合】
这次 OpenAI 与 AWS 的合作,标志着 AI 行业竞争进入了一个新阶段。
模型能力本身的差距正在快速收窄。GPT-5.5 与 Claude 4、Gemini Ultra 的性能差异,对大多数企业用户来说已经不是选择模型的唯一标准。谁能更好地融入企业已有的技术栈、谁的安全合规体系更成熟、谁的使用流程更顺畅——这些因素正在成为决定企业 AI 选型的关键。
这个趋势对 Anthropic 是直接利好:Claude 早就登陆了 AWS Bedrock,企业客户可以在 Bedrock 上同时调用多个模型,按需选择。但更受益的是整个企业 AI 市场:AI 能力正在从”独立产品”变成”基础设施组件”,就像数据库或消息队列一样,嵌入在企业已有的技术环境中,而不是作为一个需要单独管理和采购的工具存在。对企业 IT 部门来说,这意味着可以沿用已有的安全策略、已有的采购流程、已有的供应商关系来引入 AI 能力,降低了落地的组织摩擦。
对于企业开发者而言,这意味着 AI 使用的民主化正在加速。当最强模型可以通过统一的云 API 获取,当编程辅助工具可以无缝集成进已有的开发环境,AI 不再是少数有预算和能力自建 AI 平台的科技公司专属品。每一个在 AWS 上有工作负载的团队,理论上现在都可以低成本调用 GPT-5.5——只要他们已经有 AWS 账号就行。
但这场变化对微软的冲击是最直接的。失去 OpenAI 独家使用权,Azure 的 AI 差异化优势被显著削弱。不过微软手里还有一张牌:Copilot。Copilot 已经深度集成进 Microsoft 365(Word、Excel、Teams)和 Azure DevOps,形成了另一个维度的生态锁定。如果 OpenAI 模型本身正在变成一种通用商品,那围绕模型构建的应用层和办公层整合,才是真正的护城河。企业用户可以不在意模型在哪跑,但他们很难离开已经深度嵌入工作流的 Microsoft 365 Copilot。
这场 AI 竞赛,正在从”谁有最强的模型”演进到”谁能让最强模型用起来最顺手”。GPT-5.5 上 AWS,是这个趋势的第一个公开注脚。接下来的问题是:Google Cloud 会不会跟进?Anthropic 会不会推出自己的企业级 Agent 产品?而那些已经在 AWS 上投入重金的传统企业,终于可以不用换云就用上最强模型——这件事本身,才是这次合作最朴素的价值。
夜雨聆风