OpenAI深度研究:护城河的瓦解与重建
——从非营利科研机构到万亿美元商业霸主的十年征途
「我们的目标是以最可能造福全人类的方式开发通用人工智能(AGI),而不是为了一个科技公司。」——OpenAI创立文件,2015年12月
OpenAI是21世纪最具戏剧性的商业故事之一。2015年,一批理想主义者创立了这家非营利机构,目标是「防止AI被大公司垄断」。2026年,这家公司估值达8520亿美元(ARR已突破200亿美元+),却仍在亏损——2025年现金消耗约80-90亿美元,2025-2029年累计烧钱约1150亿美元才能在2030年实现盈利。
本报告以「护城河的瓦解与重建」为核心叙事,回答三个根本问题:OpenAI的护城河究竟是什么?它正在遭受哪些根本性挑战?以及在AI Agent时代,OpenAI能否找到新的护城河?
第一章:理想开局——从车库到万亿美元
1.1 为什么创立OpenAI
2015年12月,旧金山。Elon Musk、Sam Altman、Ilya Sutskever、Greg Brockman等人联合创立了OpenAI。创立的背景,是一个令人不安的共识:如果AI技术被少数大公司垄断,人类将失去对最强大技术的控制权。Google收购DeepMind后,AI领域的集中度急剧上升。Musk和Altman认为,必须有一家机构,以非营利的方式,确保AGI的技术红利被全人类共享。
这是硅谷理想主义的最后一次集体行动。OpenAI的官方使命极为清晰:「确保通用人工智能(AGI)造福全人类。」
1.2 理想与现实的内在矛盾
从第一天起,OpenAI的治理结构就埋下了内在矛盾的种子。OpenAI设计了一个极为复杂的双层结构:非营利实体OpenAI Inc.控制一家营利实体OpenAI LP,后者的投资者回报上限被设定为「投资的100倍」。讽刺的是,这个设计后来几乎变成了「无限利润」——当AI赛道成为全球最热投资方向时,100倍回报上限变得毫无约束力。
双层结构的法律细节:
OpenAI的治理架构是美国公司法历史上最具创造性与争议性的设计之一。它并非简单的非营利组织,而是一套精心设计的「双层嵌套结构」:OpenAI, Inc.(非营利母公司)作为整个体系的控制实体,拥有最终决策权,负责监督组织使命的执行;OpenAI, LP(有限合伙企业)则是整个商业化运营的载体,投资者作为LP(有限合伙人)注入资金,而OpenAI, Inc.担任GP(普通合伙人),掌握实际控制权。这意味着无论LP投资人投入多少资金、持有多少股份,他们永远无法控制OpenAI的战略方向——这在法律层面将「资本权力」与「使命控制」做了切割。
回报上限的演变:
2025年,OpenAI将LP投资人的回报上限改为「每四年翻倍」的滚动机制。具体而言,若某投资人在第一周期内获得的回报上限为100倍,则进入第二个四年周期后,上限变为200倍,第三个周期变为400倍……以此类推。表面上这是「有限回报」,但在实际操作中,如果OpenAI的估值在多个周期内保持高速增长,「每四年翻倍」的机制实际上允许LP投资人在足够长的时间维度内获得接近无限的商业回报。
注:具体回报上限条款以OpenAI官方重组公告为准,本报告基于公开报道整理。
这一修改本质上是向资本市场的一次重大让步,标志着OpenAI从「非营利理想」向「商业现实」的又一次重大妥协。
1.3 早期资金:从幻想到现实
OpenAI的早期资金主要来自创始人的个人投入:Musk出资约1亿美元首轮投资进入,这是OpenAI从「理想主义实验」走向「商业巨头」的真正起点。
第二章:微软之锚——130亿美元赌注的双刃剑
2.1 微软的赌注
2019年,微软以10亿美元首次投资OpenAI;此后累计投入约130亿美元(11.6B)。截至2026年,微软持股市值约1350亿美元,浮盈超过10倍。
这笔投资对双方而言都是一个奇迹:微软获得了全球AI赛道的核心入场券。
2.2 微软退为纯财务投资人:2026年4月的历史性转折
2026年4月,OpenAI与微软共同宣布:结束双方的独家云服务合作协议(微软不再获得OpenAI营收分成,失去独家云服务提供商地位),但微软仍保留约27%股权(价值约1350亿美元),退为纯财务投资人——微软并未出售股份,至今仍是OpenAI最大单一股东。
这个消息在市场上引发的反应出乎意料——OpenAI股价在消息公布后不跌反涨。
原因在于:独家绑定Azure,让OpenAI在芯片采购、云服务定价等关键决策上,必须考虑微软的战略利益。战略自主权,是OpenAI走向AGI的必备条件。微软退为纯财务投资人,反而让OpenAI获得了更大的战略自由度——这反而是利好。
第三章:Scaling Law信徒——GPT系列的进化逻辑
3.1 GPT-1到GPT-3:规模即能力
2018年GPT-1发布,1.17亿参数,验证了Transformer架构在语言任务上的可行性。2019年GPT-2发布,15亿参数——是GPT-1的10倍,OpenAI做了一个反常决定:暂时不公开GPT-2全部权重,理由是担心被用于生成虚假信息。这个决定引发了巨大争议,但它揭示了OpenAI的核心哲学:有些能力一旦展示就无法收回,谨慎比开放更重要。
2020年GPT-3发布,1750亿参数。这是Scaling Law的第一曲巅峰:在足够大的规模下,语言模型能够「涌现」出令人惊讶的能力——零样本学习、上下文学习、代码生成。GPT-3同时开启了OpenAI的商业化,API付费调用每年带来数亿美元收入。
3.2 GPT-4:全球最大的AI「黑箱」
2023年3月,GPT-4发布。关于GPT-4的架构,OpenAI选择了完全保密。外界推测GPT-4采用MoE架构,约8个专家模块,据非官方渠道(SemiAnalysis等)推测约1.76-1.8万亿参数,OpenAI从未官方确认GPT-4参数数量。GPT-4的多模态能力(图像+文本)是另一大突破,在复杂视觉推理任务中达到接近人类专家的水平。
GPT-4在多项人类标准化考试中取得惊人成绩:在律师资格考试中进入前10%,在美国高考(SAT)中获得约93%的分数,在生物学奥赛中超越大多数专业选手。
3.3 GPT-4o与推理时代
2024年5月,GPT-4o发布(「o」= omni,原生多模态),统一了语音、视觉和文本的理解与生成。2024年9月发布的o1(后演变为o3),则代表了一次范式转移:OpenAI正式进入「推理能力」时代,o3在ARC-AGI测试中达到87.5%,在SWE-bench中达到71.7%,首次在多项任务上超越人类专家平均水平。
o3最深刻的启示在于:Scaling Law并没有在训练阶段失效,而是在向推理阶段迁移。当训练成本已达天文数字、边际收益开始递减时,OpenAI发现了一条新路径——在推理阶段投入更多计算资源,让模型「花时间深度思考」,其效果甚至超越了单纯增大模型本身。这一发现被称为「推理时Scaling Law」,深刻重塑了整个AI行业的竞争逻辑。
第四章:2023年政变大戏——资本力量才是真实操作系统
4.1 事件经过
2023年11月,OpenAI经历了可能是科技史上最为戏剧性的五天。
11月17日(星期五):OpenAI董事会通过公告,宣布解除CEO Sam Altman的职务,同时解除联合创始人Greg Brockman的董事长职务。公告仅表示Altman「在与董事会的沟通中不够坦诚」,未提供任何细节。
11月18日(星期六):CTO Mira Murati被任命为临时CEO。微软CEO Satya Nadella在得知消息后数小时内致电Altman和Brockman,表达「全力支持」立场,并向OpenAI董事会发出最后通牒:若不恢复Altman职务,微软将考虑终止合作并支持Altman另起炉灶。
11月19日(星期日):Altman以「访客」身份回到OpenAI总部。谈判核心分歧在于:Altman团队要求恢复「以商业化为导向」的战略路线,而Ilya Sutskever为首的「安全派」则认为AGI的开发速度已超出安全框架所能承载的范围。
11月21日(星期二):约500名OpenAI员工联名签署公开信:「若董事会不恢复Altman的CEO职务,全体员工将在24小时内集体辞职,跟随Altman加入微软。」最终,董事会妥协,Altman官复原职,Sutskever离开董事会。
4.2 核心结论
这场政变的根本原因至今仍有争议。但有一个结论是清晰的:资本的意志最终战胜了理想主义治理。当微软能在48小时内稳住局面,OpenAI的非营利治理结构就已经名存实亡。这是OpenAI从「理想主义机构」彻底转变为「商业巨头」的历史分水岭。
更深层的原因在于:OpenAI的治理架构从设计之初就埋下了「使命漂移」的种子。当一个组织同时追求「开发最强大的AGI」和「保持非营利使命」时,这两个目标在某个临界点必然产生冲突——AGI的开发需要巨额资金,获取资金意味着引入商业逻辑,引入商业逻辑意味着加速商业化,加速商业化则意味着「使命优先」原则被逐步侵蚀。
第五章:财务迷局——1150亿美元待烧
5.1 估值的火箭式增长
OpenAI的估值增长,是21世纪最快的财富创造故事之一:2019年约30亿美元→ 2024年8520亿美元。8年时间,估值增长约284倍。
5.2 收入:从零到百亿的跨越
2022年ChatGPT发布前,OpenAI年收入不足2000万美元;2025年全年营收约130亿美元;2026年预计营收约250亿美元(annualized run-rate)。
注:此处「250亿美元」为 annualized run-rate(非全年营收预测),反映的是2026年某一时点的月度标准化年化收入。OpenAI的ARR(年度经常性收入)已于2026年初突破200亿美元,为独立指标,两者逻辑上可共存。
收入结构:
•ChatGPT Plus(20美元/月):约3500万付费用户,占订阅收入约66%
•API收入(GPT-4/o1/o3调用):约120亿美元量级
•企业客户:微软Copilot(通过Azure间接)、Salesforce等大型企业
5.3 亏损真相
2024年亏损约50亿美元。2025年现金消耗约80-90亿美元。预计到2029年,累计烧钱约1150亿美元才能在2030年实现盈利。这是典型的「先烧钱占市场」逻辑——以亏损换规模,以规模换护城河。
5.4 谁在买单
OpenAI的投资人名单几乎是全球顶级资本的集合:微软(累计130亿美元/$13B,已退为纯财务投资人)、Thiel(Founders Fund)、Sequoia、红杉、Khosla Ventures、阿联酋主权基金(穆巴达拉)等。这些资本的共同特征是:长期主义——他们押注的不是OpenAI今天的盈利能力,而是AGI实现后整个世界的改变。
第六章:人才流失——从「人才护城河」到「生态护城河」
6.1 核心人才的离开
2024年,OpenAI首席科学家Ilya Sutskever离开,创立SSI(Safe Superintelligence),专注于「安全超级智能」。Mira Murati(CTO)同期离开。大批高级研究员被Anthropic、Google DeepMind等竞争对手挖走。
6.2 Ilya Sutskever:离开的意义超越任何产品发布
苏茨克维之所以重要,不仅因为他是一个顶级研究员,更因为他是AI安全运动的「定海神针」。他不仅是OpenAI的首席科学家,更是AI安全领域最具公信力的声音之一——他的专业能力无可置疑,他与OpenAI的联系意味着「安全考量」曾经是这个最强AI实验室的核心关切。
当苏茨克维选择离开OpenAI并创立SSI时,他向整个行业传递了一个极其清晰的信息:他认为当前所有主流AI公司为安全与速度的权衡上,都做出了错误的选择。这一信号的强度远超任何产品发布的影响。产品发布只能说明「技术能力」,而苏茨克维的离开说明的是「价值判断」——一个在自己领域最有发言权的人,认为整个行业正在滑向危险的方向。
6.3 讽刺:生态护城河依然有效
讽刺的是,即使核心人才大规模出走,OpenAI的领先地位并未动摇。原因在于:OpenAI的护城河,已经从「人才密度」转向了「生态规模」。当全球数百万开发者习惯了在OpenAI的API上构建应用,当数亿用户习惯了ChatGPT的交互方式,人才流失带来的技术差距,被生态锁定效应大幅稀释了。
值得注意的是:人才流失≠技术流失。 OpenAI通过多年的技术积累,已经建立起一套完整的研究方法论、工程化流程和数据集管理规范。这些「组织知识」分散在团队中,而非集中在几个人身上。因此,即使核心人员离开,OpenAI的短期技术领先优势仍然可以维持。但从中长期看,如果人才流失持续加速,技术领先优势的「钝化」将不可避免。
第七章:技术失势——开源革命与闭源危机
7.1 DeepSeek R1:真正的转折点
2025年1月27日,DeepSeek R1发布,价格冲击震动整个AI行业:

DeepSeek R1的输出价格约为o3的约1/4,价格战使闭源与开源的价差从百倍级压缩至个位数倍数。
注:DeepSeek R1训练成本存在争议——DeepSeek官方披露预训练GPU成本约6000万美元;但部分第三方分析(SemiAnalysis等)认为,若将全部研发人员成本、数据中心基础设施和实验消耗计入,总成本可能超过10亿美元。本报告所列6000万美元为DeepSeek官方披露数字,读者请注意此差异。
DeepSeek以约1/10的成本,做出了性能对标o1的推理模型。
7.2 资本市场的恐慌
DeepSeek R1发布后,Nvidia股价单日暴跌约9%,市值蒸发约6000亿美元。
7.3 闭源护城河的量化侵蚀
开源与闭源模型的能力差距,正在急剧收窄:2019年约20-30%→ 2024年约5-8%→ DeepSeek R1发布后在多个主流基准测试上,开源与闭源差距已压缩至个位数百分点以内。闭源厂商依靠「性能差距」建立的定价护城河,正以每12-18个月翻一倍的速度被侵蚀。
7.4 o3的反攻:推理时Scaling Law
OpenAI的应对策略是:将「大力」从训练时转向推理时。o3的核心理念是「测试时计算」(Test-time Compute)——在推理时(用户提问时)投入更多计算资源,让模型进行更深入的「思考」。o3证明:「大力出奇迹」的Scaling Law并未失效,只是从「训练时Scaling Law」转向了「推理时Scaling Law」。OpenAI找到了第二增长曲线。
第八章:放弃苹果——平台野心高于短期利润
8.1 苹果的机会
2024年,苹果与OpenAI就Siri合作进行了长达数月的谈判。最终,OpenAI选择了放弃成为苹果Siri的AI模型提供商——苹果最终宣布与Google Gemini合作,将Gemini集成到iOS系统中。
关于「交易金额」的说明:多起美国司法部反垄断诉讼文件披露,Google每年向苹果支付约200亿美元(而非100亿美元),以维持其Safari默认搜索引擎地位。这笔巨额费用进一步印证了苹果作为平台的强势议价能力,也说明了OpenAI拒绝与苹果深度绑定的战略正确性——面对年均可产生200亿美元收入的分发渠道,OpenAI依然选择保持独立品牌和定价权。
8.2 OpenAI的拒绝
这是一个看似难以理解的决定。但Sam Altman看到了更深层的问题:接受苹果的合作,意味着在最重要的消费电子平台上,将OpenAI的能力「外包」给苹果品牌,削弱自身的用户认知和定价权。
苹果合作本质上是「iOS系统级集成」——OpenAI的模型将被深度嵌入苹果操作系统,Siri和各类原生应用,苹果将掌握与用户的直接接口,而OpenAI将被「管道化」,成为苹果后台的「技术供应商」,而非独立面向用户的「AI平台」。
Sam Altman的长期愿景是让OpenAI成为AI时代的「平台核心」——类似Windows在PC时代的地位,或iOS在移动互联网时代的地位。放弃确定性收入,是最理性的战略决策。
第九章:全球四极格局——OpenAI vs Anthropic vs DeepSeek vs Palantir
9.1 四个护城河,四种叙事
2026年的全球AI竞争,已形成清晰的四极格局:
OpenAI(美国):规模即护城河。 ARR已突破200亿美元+,全球最大开发者生态,MCP协议正从「卖模型」向「做平台」转型。弱点:持续亏损,护城河正被开源侵蚀。
Anthropic(美国):安全即信任。 Dario Amodei创立的「更安全AI」路线,Claude系列在企业市场快速渗透。弱点:规模与OpenAI仍有差距。
DeepSeek(中国):开源即普惠。 557万美元训练成本,MIT协议,1M上下文,Arena.ai开源综合第3位,全程华为昇腾。弱点:地缘政治风险,商业化可持续性存疑。
Palantir(美国):数据即主权。 Ontology数据操作系统,政府+商业双轮驱动,2025年营收约44.75亿美元,2026年指引约72亿美元。政府场景的信任壁垒是最大护城河。弱点:对政府预算的高度依赖。
9.2 谁的护城河最牢固
各有脆弱性,但OpenAI面临的挑战最为严峻。它的护城河正同时被三个方向侵蚀:开源模型(DeepSeek/LLaMA)在性能上逼近,闭源竞争对手(Anthropic/Google)在安全性上差异化,AI Agent时代的新生态位(MCP协议控制权)竞争激烈。
第十章:Agent时代——OpenAI的最后一张牌
10.1 MCP协议:平台野心的核心
2025年,OpenAI正式加入并大力推广MCP协议(Model Context Protocol)——一套让AI模型能够调用外部工具和数据源的开放协议。
MCP的战略价值远超技术本身:如果MCP成为行业标准,OpenAI将成为AI Agent生态的「操作系统层」。任何AI Agent,都需要通过MCP协议获取外部工具和数据,而OpenAI将是这个协议最核心的实现者和推广者。
MCP的终极愿景是成为AI时代的「USB标准」——正如USB接口统一了设备连接方式,MCP有望成为AI Agent与各种数据源、工具、平台之间的「万能适配层」。如果这一愿景实现,OpenAI将从「模型供应商」升格为「平台规则制定者」,其护城河的宽度和持久度将远超单纯的模型销售。
10.2 Operator:AI Agent的第一步
2025年,OpenAI发布Operator——一个能够代替用户执行真实任务的AI Agent。用户可以让Operator帮助预订餐厅、购买商品、填写表单、执行复杂网络操作。这是OpenAI展示AI Agent在最复杂场景下能力的核心产品。
10.3 最终判断
OpenAI真正的赌注,是「平台」而非「模型」。这个赌注能否成功,取决于MCP协议能否成为行业标准。如果成功,OpenAI将从「模型供应商」升格为「Agent平台基础设施」,护城河将比GPT时代更宽更持久。如果失败——被Anthropic的替代协议或Google的封闭生态击败——OpenAI将面临更严峻的竞争压力。
最终判断:在AI Agent时代,OpenAI的核心壁垒不是模型有多强,而是生态有多大。这是它最后一张牌,也是最难被复制的一张牌。
第十一章:五个反直觉发现——颠覆认知的行业真相
反直觉一:微软退场是利好——独家绑定Azure反而限制了OpenAI的战略自由度
按照常规逻辑,失去微软这座拥有130亿美元投资、数万名工程师和全球最大云计算基础设施的靠山,OpenAI理应陷入战略危机。然而,真实情况恰恰相反。
微软的独家绑定,对OpenAI而言是一把双刃剑:当OpenAI的模型只能通过Azure对外提供服务时,OpenAI的战略选择受到了严重制约——它无法与其他云厂商建立合作,无法自由定价,无法独立拓展某些企业客户,甚至在产品策略上也需要与微软协调。微软通过这份「独家协议」,在事实上将OpenAI变成了Azure的一个「高端增值服务」,而非一个独立的AI平台公司。
当OpenAI向所有云厂商开放合作(2026年的战略转型)后,OpenAI获得了真正意义上的战略自主权:可以同时与Azure、AWS、Google Cloud建立合作,可以独立定价、独立签约、独立制定生态策略。这使得OpenAI从「微软的AI部门」转变为真正意义上的「AI基础设施平台」——一种价值远高于「独家供应商」身份的定位。
微软的退场也是理性的:继续独家持有OpenAI意味着每年向OpenAI支付巨额算力费用,而这些费用实际上在帮助OpenAI服务微软的竞争对手。当浮盈已超过10倍、战略协同已最大化时,退场是最优选择。对OpenAI而言,这是一次战略自主权的夺回。
反直觉二:放弃苹果200亿美元/年的分发机会是正确的——做苹果的附庸比拒绝更危险
当OpenAI放弃与苹果的合作机会时,舆论一度认为OpenAI犯了战略错误。但细究之下,OpenAI的选择是极其精明的。
苹果的合作本质上是**「iOS系统级集成」**——OpenAI的模型将被深度嵌入苹果的操作系统和Siri,苹果将掌握与用户的直接接口,而OpenAI将被「管道化」,成为苹果后台的「技术供应商」,而非独立面向用户的「AI平台」。
对于OpenAI的战略目标——成为AI时代的操作系统和基础设施——成为苹果的附庸意味着主动放弃平台战略的核心控制权。多起美国司法部反垄断诉讼文件披露,Google每年向苹果支付约200亿美元(而非此前流传的100亿美元),以维持其Safari默认搜索引擎地位。这一数字进一步印证了苹果作为平台的强势议价能力。面对年均可产生200亿美元分发收入的机会,OpenAI依然选择保持独立品牌和定价权——这是极其罕见且昂贵的战略自信。
放弃短期收入,换取长期战略自主权——这是OpenAI在苹果合作上做出的最正确决定。
反直觉三:o3越强,护城河越薄——推理时Scaling反而削弱了OpenAI的优势
o3的成功,在表面上证明了OpenAI的技术领先。但深入分析会发现:o3所开创的「推理时Scaling」路线,本质上是一把双刃剑——它不仅强化了OpenAI的能力,也在客观上削弱了OpenAI的护城河。
原因在于:训练时Scaling依赖的是数据、算法和算力的综合积累,这种积累具有高度的时间累积效应,后来者需要花费数年时间才能追赶。但推理时Scaling的核心是「推理时投入更多计算资源」,这意味着只要有足够的GPU,任何竞争对手都可以在自己的模型上应用类似的推理策略。
更关键的是,推理时Scaling的算法思路是可以被研究论文公开描述、被开源社区复现的。当OpenAI发表o1的技术报告时,核心的「思维链推理」机制已经被业界充分理解。Anthropic、Google DeepMind和Meta的团队都在快速跟进这一方向,差距正在以肉眼可见的速度缩小。
开源追赶的速度尤其触目惊心:从2019年开源模型落后闭源模型20-30个百分点,到2024年缩小至5-8个百分点,再到DeepSeek R1将差距在多个主流基准上压缩至个位数百分点,开源与闭源的差距正在以非线性速度消亡。当GPT-4和o3的「闭源优势」被推理时Scaling和开源追赶双重侵蚀时,OpenAI曾经最宽的护城河——「规模积累的技术领先」——正在快速变窄。
反直觉四:Ilya Sutskever离开是最强的行业信号——他的离开比任何产品发布都更能说明问题
在信息爆炸的时代,科技行业每天都有新产品发布、新融资公布和新功能上线。但Ilya Sutskever的离开,是极少数能够超越「产品竞争」层面、揭示行业根本性问题的历史事件。
苏茨克维之所以重要,不仅因为他是一个顶级研究员,更因为他是AI安全运动的「定海神针」。他是OpenAI的首席科学家,更是AI安全领域最具公信力的声音之一——他的专业能力无可置疑,他与OpenAI的联系意味着「安全考量」曾经是这个最强AI实验室的核心关切。
当苏茨克维选择离开OpenAI并创立SSI时,他向整个行业传递了一个极其清晰的信息:他认为当前所有主流AI公司(包括OpenAI)在安全与速度的权衡上,都做出了错误的选择。
这一信号的强度远超任何产品发布的影响。产品发布只能说明「技术能力」,而苏茨克维的离开说明的是「价值判断」——一个在自己领域最有发言权的人,认为整个行业正在滑向危险的方向。这比任何benchmark分数的提升或参数规模的扩大,都更能撼动投资者、监管机构和公众对AI发展的信心。
反直觉五:DeepSeek单次事件让Nvidia蒸发6000亿美元——这反而是OpenAI的危机
2025年初,DeepSeek发布R1模型,以仅约6000万美元的训练成本(据DeepSeek官方披露;第三方估计含全部成本则超过10亿美元)实现了与GPT-4旗鼓相当的性能。这一发布引发了全球AI板块的剧烈震荡:Nvidia股价单日暴跌约17%,市值蒸发约6000亿美元。
但对于OpenAI而言,这并非利好,反而是一记警钟。
DeepSeek R1的发布证明了一个令OpenAI不安的事实:Scaling Law的边际收益正在递减。 OpenAI过去十年所依赖的核心竞争逻辑——「投入更多算力,训练更大模型,获得更强能力」——正在被新的范式所挑战。如果开源社区和低成本竞争者能够以远低于OpenAI的成本达到相近的能力水平,那么OpenAI的高额研发投入和运营成本将变得越来越难以通过「技术溢价」来覆盖。
更重要的是,DeepSeek的案例向全球投资者和企业家证明:AI竞争并非只有「资金雄厚者」才能参与。这直接削弱了OpenAI作为「行业守门人」的角色定位——当任何人只要几百万美元就能训练出接近GPT-4水平的模型时,OpenAI作为「AGI唯一路径」的叙事便开始瓦解。
夜雨聆风