理想、资本与控制权②|OpenAI 的“使命”为什么会松动?
前面讨论的所有结构选择,都没有正面回答一个更基础的问题——前沿 AI 公司到底为什么需要这么多钱?
这个问题很重要。因为如果资本需求只是”中等偏高”,那 PBC、capped-profit、母体控股这些结构里任何一种都可能稳得住;但如果资本需求是”指数级增长且接近物理极限”,那任何使命锁都要面对一个持续加压的现实环境。
这一节就讲清楚后一种情况是怎么形成的。
2.3 资本规模:为什么前沿 AI 走不出资本市场
训练成本的指数曲线
衡量前沿 AI 的资本强度,最直观的指标是训练一次旗舰模型要花多少钱。这条曲线不是线性增长,是接近指数的。
公开记录里能确认的几个节点:
- GPT-3(2020):基于 OpenAI 自己论文中的算力数据推算,训练成本估算约 460 万美元
- GPT-4(2023):Sam Altman 在公开访谈中说”训练成本超过 1 亿美元”——这是他本人确认过的数字
- 下一代旗舰模型(2024-2026 区间):多家媒体援引内部信源报道,单次训练成本进入 5-10 亿美元区间。Anthropic CEO Dario Amodei 在 2024 年公开表示,”今天最大的模型训练成本约 1 亿美元,但 10 亿美元成本的模型即将到来,1000 亿美元成本的模型也已经被讨论”
需要说清楚的是,这些数字有几种不同口径——有的是 GPU 租赁成本,有的是包含失败训练的总投入,有的是建集群的硬件成本。但不管用哪种口径,三年大约一个数量级的增速这个趋势是稳定的。
这不是普通的”研发投入增长”。一家做芯片的公司,研发投入也会随产品复杂度上升,但通常是温和的、可预测的曲线。前沿 AI 的训练成本曲线更接近航天工程——每一代旗舰任务都比上一代贵一个数量级,而且失败一次的代价是真实的几亿美元。
不只是训练:基础设施这一面
但训练成本只是冰山的一角。真正决定资本规模的,是支撑训练和推理的基础设施。
最直观的参照物是 Stargate 项目。这是 OpenAI 与 SoftBank、Oracle、MGX 在 2025 年 1 月联合宣布的 AI 基础设施合资项目,公开承诺四年内投资 5000 亿美元,在美国建设总功率约 10 GW 的数据中心。第一笔 1000 亿美元立即部署。到 2025 年 9 月,Stargate 已宣布的站点累计规划容量接近 7 GW、对应投资超过 4000 亿美元。
这些数字本身就足够惊人。但更值得停下来想一想的是它们对应的物理量级:
- 10 GW 的总规划功率,大致相当于 8-10 个传统大型核电站的输出——也就是说,Stargate 一家公司未来几年要消耗的电力,可以匹配一个中等国家的整体用电
- 5000 亿美元 的投资规模,放在传统行业里大致是一个国家级基础设施工程的体量。作为对比,美国《通胀削减法案》总规模约为 7800 亿美元,跨越十年
- 2 百万张以上的 AI 芯片(根据 OpenAI 与 Oracle 2025 年 7 月的 4.5 GW 扩展协议公开数字),单卡价格在 3-4 万美元区间

这个量级的资本投入,在传统软件行业里没有先例。它更接近半导体厂、航空公司、电信网络这种资本密集型基础设施行业——这些行业的共同特征是:进入门槛极高,头部玩家少,需要长期持续的巨额资本注入,而且单个决策的资金量级往往比整个传统行业的年度总投资都大。
软件公司的成本曲线 vs 前沿 AI 的成本曲线
这里有一个值得点出的结构性差别。
传统软件公司的成本曲线是这样的:前期投入相对小,产品上线后边际成本接近零——每多一个用户基本不增加多少成本。这是为什么 SaaS 公司的毛利率可以做到 70-80%,为什么很多软件公司可以从车库做起。
前沿 AI 公司的成本曲线不一样:前期烧训练成本,产品上线后每一次推理调用还在烧 GPU 电费。每多一个 ChatGPT 重度用户,公司的成本是真实增加的——OpenAI 自己披露的现金消耗数据(2025 年约 90 亿美元、2026 年预估 170 亿美元)直接反映了这一点。
Sacra 的财务跟踪报告显示,OpenAI 预计要到 2030 年才能实现现金流为正。也就是说,在未来四年里,OpenAI 仍要持续向资本市场寻求数百亿到上千亿美元的资金支持。
这种成本结构上,前沿 AI 公司在某种程度上比起传统软件公司,在结构上更接近航空公司:固定资产投入巨大、单位产品的边际成本不低、需要持续的资本注入维持运转、对融资环境高度敏感。
钱从哪里来:三个可能的来源
理解了量级,就能理解为什么 OpenAI 当年的”非营利 + 捐赠”结构走不下去。
数百亿到上千亿美元规模的资本,目前世界上有三类来源能稳定提供:
第一,超大科技公司的战略投资。Microsoft 累计向 OpenAI 投入超过 130 亿美元(到 2025 年公开数据),并在 2025 年 10 月重组中获得约 27% 的 OpenAI Group 股权,估值约 1350 亿美元。Amazon 与 Anthropic 之间也有类似的深度战略合作。这类资本的特点是规模大、来得快,但代价是战略捆绑——投资方会获得云服务独家权、IP 许可、收入分成等深度利益绑定。
第二,主权基金和大型机构资本。SoftBank 在 2026 年 4 月领投了 OpenAI 的 1220 亿美元新轮融资,公司估值升至 8520 亿美元。SoftBank 早些时候已对 OpenAI 做出 410 亿美元的资本承诺,持股约 11%。中东主权基金 MGX 也是 Stargate 的初始权益方之一。这类资本的特点是体量更大、政治敏感度更高,通常带有国家战略意图。
第三,公开资本市场——也就是 IPO。这是规模最大、流动性最强、但也最受外部约束的一种来源。OpenAI 已公开表示正在为 2026 年下半年的 IPO 做准备。
这三类来源,OpenAI 已经用了前两类。第三类——IPO——是它接下来要进入的世界。而 IPO 之所以是这一系列结构问题里最关键的一道压力测试,我们留到第四幕展开。
OpenAI 的资本化轨迹,不是某个 CEO 个人的选择,也不是某种”资本污染了理想”的简单故事。它更像是这个行业的入场费——一旦决定要做前沿大模型,就只能在这个量级的资本市场里游泳。
这不意味着前沿 AI 公司守不住使命。但它意味着,任何一家声称”用非营利方式做前沿 AI”的组织,都要回答一个具体问题:你的算力来自哪里。
如果答案是”靠捐赠和会员收入”,那它实际上做不了真正意义上的前沿模型——它能做研究、能发论文、能做小规模实验,但做不了 GPT-5 量级的训练。这不是道德问题,是物理问题。
如果答案是”靠超大科技公司的战略投资+主权基金+IPO”,那它就要面对一个事实:这三类资本来源,都会带来它们各自的影响——战略合作方的优先权、主权基金的政治可见性、公开市场的季度披露压力。每一种影响本身不一定违背使命,但合在一起,会持续重塑这家公司在每一次具体决策上的优先级。
而这种”重塑”具体是怎么发生的——商业模式如何反过来塑造一家 AI 公司的产品决策、模型行为、甚至安全边界。
2.4 商业模式如何反过来塑造公司
如果说 2.3 节回答了”前沿 AI 为什么需要这么多钱”,这一节回答的是另一个问题——当一家公司开始靠某种方式赚钱后,它会被这种赚钱方式塑造成什么样。
这两件事是连在一起的。规模化资本进入之后,公司必须找到能支撑这个量级估值的收入模型;一旦收入模型成型,组织本身就会开始向它的资源来源倾斜——这种倾斜往往不是任何人明确决定的,而是结构性的。
一个有用的概念:资源依赖
管理学里有一个被反复讨论的概念,叫 Resource Dependence Theory(资源依赖理论),由 Pfeffer 和 Salancik 在 1978 年提出。它的基本判断很简单:一个组织的行为,会朝着它最依赖的资源来源倾斜。
具体怎么倾斜?可以这样理解:
- 一家公司收入的 70% 来自某一类客户,它的产品决策就会向这类客户倾斜——即使没有任何人在公司内部明确说”我们要更照顾这类客户”
- 一家公司主要靠某一种合作方提供算力、渠道或数据,它的技术决策会受这个合作方的偏好影响——即使这种影响从不会出现在合同条款里
- 一家公司主要靠某一类指标(用户增长、订阅留存、企业续约率)来证明自己的估值,它的研发优先级就会被这类指标重新排序
这是组织运转的常规结构。资源依赖会改写组织内部的注意力分配,注意力分配会改写人才结构,人才结构会改写产品决策——这条链条上没有任何一步是”背叛”,但它的终点常常和起点不在同一个地方。
把这个机制套在 OpenAI 身上,就能看清它的几条收入线在做什么。
OpenAI 的几条收入线
根据 OpenAI 公开披露和第三方追踪报告,2025 年公司年化收入约 200 亿美元(CFO 在 2026 年 1 月确认),2026 年 2 月已升至 250 亿美元年化。收入主要来自这几条线:
(1) ChatGPT 订阅(消费端):占目前收入的大头。优化目标是规模、留存、用户黏性、单用户付费转化。这条线倾向于推动模型在情感连接、易用性、对话感上的持续打磨。
(2) API 收入(开发者端):向第三方开发者出售模型调用接口。优化目标是模型能力、推理延迟、单位成本。这条线推动模型蒸馏、推理优化、上下文窗口扩展、agent 能力。
(3) 企业服务(B 端):向公司、机构、政府出售定制化解决方案。优化目标是合规、安全、SLA、行业适配。这条线推动模型可控性、隐私保护、私有化部署能力。
(4) 战略合作收入(平台端):与 Microsoft、Oracle、SoftBank 等的深度协议。这一类不直接产生消费者收入,但通过云服务承诺、IP 许可、Azure 优先权等条款,在战略层面深度绑定 OpenAI 的技术路线和商业节奏。
(5) Agent / 自动化方向(尚在早期):面向”让 AI 替人完成任务”的产品形态。这条线追求的是 tool use、长期记忆、多步推理、自主决策。它是潜在的下一个增长引擎,但也是安全风险最集中的方向——因为”能替人做事”的能力,边界本身就在被持续推开。
每一条线本身都没有问题。但每一条线都会带来自己的拉力。当多条收入线同时增长,组织的每一次决策都要在这些拉力之间寻找一个平衡点——而这个平衡点,会随着哪条线增长更快、哪条线对估值贡献更大,持续被重新校准。

两个具体的案例
这种”商业模式反向塑造公司”的过程,通常很难看见——因为它发生在组织内部,产生在无数个微小决策的叠加里。但偶尔会有一些事件让这个过程变得清晰可见。OpenAI 自己公开承认的两个事件,可以作为参照:
第一个:2025 年 4 月的 GPT-4o 谄媚事件。
2025 年 4 月 25 日,OpenAI 推送了 GPT-4o 的一次更新。几天内,大量用户发现模型变得过度奉承、过度赞同——它会赞美用户的低质量想法,会支持有害的决定,在一些极端案例里甚至附和用户的妄想。OpenAI 在 4 月 28-29 日紧急回滚了这次更新,并发布了两份详细的事后复盘。
第二份复盘里有一段话特别值得注意。OpenAI 自己解释,这次更新引入了”基于用户反馈(点赞/点踩数据)的额外奖励信号”——而这个信号”在汇总后削弱了原本约束谄媚倾向的主奖励信号的影响力”。换句话说,模型变得过度奉承,部分原因是公司在训练流程里加大了”用户即时满意度”指标的权重。
这是一个具体的、有公开记录的、商业模式塑造模型行为的案例。”用户即时满意度”是消费端订阅业务的核心指标——付费用户喜不喜欢、续不续订、推不推荐,直接影响这条收入线的健康度。当训练流程把这个指标加进奖励信号,模型的行为就开始向”让用户感觉好”倾斜——而”让用户感觉好”和”对用户真正有益”,在很多场景里并不是同一件事。
OpenAI 在事后复盘里直接承认了这一点:他们把短期反馈(thumbs-up/down)的权重加得太高,没有充分考虑这种信号在长期会怎样改变用户与模型的关系。这种坦率本身值得记录,也说明一件事——即使是认真做安全研究的团队,也不一定能在事前看清商业指标对模型行为的塑造路径。

第二个:2024 年 1 月的军方使用政策修改。
2024 年 1 月 10 日,OpenAI 在不公开宣布的情况下修改了使用政策。修改前,政策明确禁止”军事和战争””武器开发”等用途。修改后,这两条具体禁令被删除,留下的是更宽泛的”不得用于伤害自身或他人””不得开发或使用武器”。这一改动是 The Intercept 在两天后调查披露的。
OpenAI 给出的解释是:之前的”军事”用语过于宽泛,会阻止一些它认为合理的国家安全用例,比如与 DARPA 合作开发开源网络安全工具。OpenAI 强调,新政策仍然禁止武器开发、伤害人类、通讯监控等。
到 2024 年 12 月,OpenAI 公开宣布与国防科技公司 Anduril 合作,为美军和盟军开发 AI 模型,用于反无人机防御系统的”快速合成时间敏感数据”。MIT Technology Review 在报道中明确指出,这”完成了 OpenAI 的军事转向”。
B 端——尤其是国防/国家安全这种利润率高、合同金额大的客户——会带来一种独特的拉力,这种拉力倾向于让公司重新审视自己的边界条款。OpenAI的”政策边界”在 11 个月里发生了实质性的位移——从明确排除”军事和战争”,到主动签下国防领域的具体合同。

它们看起来都很合理——加大用户反馈权重是正常的产品迭代,修改使用政策是正常的合规调整,签 Anduril 合同是正常的业务发展。但这种”每一步都合理”的累加,正是资源依赖塑造组织最常见的形态。没有任何一步看起来像背叛,但合在一起,组织已经移动了一段距离。
一家公司的使命宣言告诉你它想成为什么。一家公司的收入结构告诉你它实际在被什么塑造。这两件事在一家小公司里可能差别不大——使命和生存方式可以保持一致。但在一家估值 8500 亿美元、年化收入 250 亿美元、依赖多种规模化资源的公司里,这两件事的差距会越来越大,而且很难被任何单个个人扭转。
一家公司靠什么赚钱,会比它的使命宣言更准确地预测它五年后的样子。、决策权分配给那些能给它带来生存资源的方向。
OpenAI 的故事提供了一个观察这个机制的难得样本。它的使命宣言写得清楚而真诚,它的安全研究团队认真且有能力,它的领导层不乏对长期问题的思考。但它仍然在过去几年里,沿着商业模式给出的拉力,持续向某些方向移动——有些移动是渐进的(用户反馈权重的微调、政策措辞的微调),有些移动是结构性的(capped-profit 的废除、与国防客户的深度合作)。
这些移动每一步看起来都合理。但累计起来,它们勾勒出一个相对清晰的轨迹——公司从其资源依赖出发,在持续地重新定义自己。
走完这一幕,可以回到一开始的那个问题——OpenAI 的官司到底在争什么?
第三幕:控制权——使命的真正载体
走完前两幕,我们已经看清:OpenAI 的争议不只是”谁背叛了谁”,它是一个组织在前沿 AI 这种规模的资本和竞争压力下,被结构、商业模式、资源依赖一步步重塑的过程。每一步看起来都合理,但累计起来,它已经不是当初那家组织。
但这套分析还差一层。组织被重塑,具体是谁在重塑?当前面所有结构都难以稳态地承载使命,最后真正决定一家公司”使命含义”的,是谁有权在每一个具体决策时刻按下暂停键。
这就是控制权。
也正是 Musk 这场官司,真正在追的东西。
3.1 庭审现场:Musk 真正在追什么
2026 年 4 月 28 日上午,北加州联邦法院 Oakland 分院,Ronald V. Dellums 联邦大楼。庭审开始。
主审法官 Yvonne Gonzalez Rogers 主持。9 人陪审团将给出一份 advisory verdict——咨询性裁决,不约束法官,但会作为法官最终判决的重要参考。Musk 与 Altman 隔几英尺坐在同一间不大的法庭里——两人都穿西装打领带。Brockman 与 Altman 坐在前排旁听席,Musk 坐在中央的辩护席,身边堆着电脑、文件夹、电缆、水瓶。
Musk 的首席律师 Steven Molo 走向陪审团,讲出全场第一句话:“Ladies and gentlemen, we are here today because the defendants in this case stole a charity.”(女士们先生们,我们今天在这里,是因为被告偷走了一家慈善机构。)
这句话定义了整场庭审的姿态——这不是商业纠纷,这是对慈善的盗窃。
第二天 4 月 29 日,Musk 本人出庭作证近五个小时,公开抛出几句标志性的话:
“我给了他们 3800 万美元几乎是免费的资金,他们用这笔钱创造了一家 8000 亿美元的营利公司。”
“我是个傻瓜——我为他们创造了免费资金,让他们去做一家创业公司。我真的就是。”
到 4 月 30 日,庭审进入第三天。Musk 仍在接受 OpenAI 律师 William Savitt 和 Microsoft 律师 Russell Cohen 的交叉盘问。Brockman 预计当天稍晚出庭。Altman 的作证排在后续几天,Microsoft CEO Satya Nadella、前 OpenAI 首席科学家 Ilya Sutskever、前 CTO Mira Murati 也都在出庭名单上。
这是 AI 行业近十年最受关注的庭审。但要看懂它,不能只看双方的 soundbite。要看 Musk 实际向法院请求了什么。

1340 亿这个数字,真正的来源
新闻里反复出现的”1340 亿美元赔偿”是一个让人愣一下的数字,但很少有报道说清楚它怎么算出来的。
根据 Musk 团队 2026 年 1 月 16 日提交的 Notice of Remedies(救济通知,法院文件 392 号),这个数字来自原告方专家证人 Dr. C. Paul Wazzan 的具体计算。Wazzan 是金融经济学家,自己经营过一家做种子轮投资的风险投资公司。
他的计算公式相对清晰,核心是三个数字相乘:
OpenAI 应吐还的”不当所得” = (营利实体当前估值) × (非营利母体在营利公司中的份额) × (可归因于 Musk 早期贡献的比例)
最后一项,Wazzan 估算在 50% 到 75% 之间——也就是说,Musk 团队主张,今天 OpenAI 创造的所有价值里,有一半到四分之三在道德意义上归功于 Musk 的早期投入。
按这个公式:
- OpenAI 部分:655 亿到 1094 亿美元
- Microsoft 部分(被列为”协助和教唆”被告):133 亿到 250 亿美元
- 加起来上限:约 1345 亿美元——这就是新闻里那个数字的真正出处
更值得注意的是,Wazzan 把 Musk 的”贡献”定义得很广。它不只包括 3800 万美元的资金(占 OpenAI 早期种子资金约 60%),还包括所谓的”非货币贡献”:招募关键员工、引荐商业人脉、教导联合创始人创业经验、出借自己的声誉与名望。
把这些无形贡献也货币化、然后用早期贡献者比例反推今天的应得份额——这是一个法律论证策略。它的意思不是 Musk 真的相信自己拥有 OpenAI 的 75%,而是为陪审团提供一个”道德上他应得很大一笔”的计算框架。Wazzan 自己也在文件里说,陪审团有权根据 Musk 实际贡献的判断,给出与他不同的比例。
但这个论证本身揭示了一件事:这场官司的基础设定,是把”早期贡献”和”今天的控制权”绑在一起——你当年投了多少、做了多少、给了多少声誉,就该在今天拥有多少话语权。这个设定后面还会回来。
Musk 实际在请求什么:四类救济
钱只是表面。法律文件里清楚列出了 Musk 真正要求的四类救济:
(1) Disgorgement(剥夺不当所得)。 1340 亿美元的赔偿——但 Musk 明确要求,如果胜诉,这笔钱归 OpenAI 的非营利母体所有,不归 Musk 自己。
(2) Removal of officers(撤销职务)。 撤销 Altman 在 OpenAI 非营利董事会的董事身份;撤销 Altman 和 Brockman 在营利子公司的高管身份。
(3) Unwinding the recapitalization(撤销重组)。 推翻 2025 年 10 月那次重组——也就是把 OpenAI Group PBC 的成立、capped-profit 的废除、母体股权结构的重新安排,全部回滚。
(4) Injunction(禁令)。 由法院发出的持续性行为限制,具体内容会在审判后由法官决定。
这四类救济翻译成治理语言,是同一件事:Musk 想做的不是收一笔罚款,而是夺回 OpenAI 的控制权,并且一次性逆转过去七年的所有结构变化。
钱判给非营利母体,意味着钱将由非营利母体的董事会来支配——只要 Altman 和 Brockman 被撤换,这个董事会就会被重组,Musk 自己或者他认可的人,有可能进入新董事会。撤销重组,则意味着 Microsoft 27% 的股权、员工 47% 的股权,在法律上失去合法性——它们必须在新的结构里重新议价。
每一项救济单独看都是一个具体诉求。但合在一起,它们瞄准的是一个目标——重新定义”OpenAI 这家公司未来由谁说了算”。

但 Musk 自己的姿态,也被检验了
如果只看 Musk 团队的开场陈词,你会以为这是一个理想主义者起诉一群叛徒的故事。但 OpenAI 的交叉盘问,在第二天就把另一面摆出来了。
Savitt 拿出的不是别的,是 Musk 当年自己的邮件和短信。这些证据显示:2017 年讨论营利化时,Musk 自己想要”initial control(初始控制权)”和”OpenAI 营利实体最大份额的股权”,并且他想自己出任 CEO。
Musk 在法庭上没有否认。他原话是:”基本上,如果他们想发财,他们应该自己去做营利公司。但他们不应该让我继续资助一个非营利组织,然后他们靠这个发财。”
这句话表面上是道德指控,但它包含一个隐藏的判断——“营利化”这件事本身,Musk 不反对;他反对的是”不由他控制的营利化”。
Savitt 的反问更直接:“Mr. Musk, you were never really committed to OpenAI being a nonprofit, were you?”(Musk 先生,你从来没有真正承诺让 OpenAI 保持非营利,对吗?)
Microsoft 的律师 Russell Cohen 在他的开场陈词里出示了另一份证据:Musk 在 2020 年 9 月发的一条 X 帖子,原话是 “OpenAI is essentially captured by Microsoft”(OpenAI 实际上已经被 Microsoft 控制)——也就是说,Musk 早在 2020 年就公开表达过对 OpenAI 与 Microsoft 关系的质疑。Cohen 用这条帖子主张:Musk 早就知道情况,已经超过诉讼时效。
这一点在法庭上变成了 Musk 必须解释的难题。Musk 给的辩解是:”觉得有人可能偷你的车,和有人真的偷了你的车,不是同一回事。”——也就是说,他承认自己早有怀疑,但坚持只有重组完成才算”被偷”。
把这些放在一起,可以得出一个相对克制的判断。Musk 对 OpenAI 走向营利化的不满,大概率是真实的——他当年想做”非营利掩护下的有控制权的研究项目”,他对 Microsoft 进入 AGI 控制权的担忧也大概率是真诚的。但同样真实的是:Musk 当年也想做营利,只是想自己来主导。
这正是第一幕末尾那句话的现实演绎——这场争论的真正实质,不是”谁更理想主义”,而是”谁有资格定义这家公司的使命含义和未来方向”。
Musk 起诉,不是因为 OpenAI 营利化了。是因为 OpenAI 营利化了,但没有以他想要的方式营利化、没有由他想要的人控制。Altman 反击,不是因为他比 Musk 更纯洁。是因为在他看来,Musk 当年没能拿到的控制权,不应该在七年之后通过法院补回去。
Altman 和 Brockman 当年是否对 Musk 隐瞒过营利化计划的细节,是法庭上具体的事实问题。但即使陪审团认定他们隐瞒了,Musk 想要的救济——撤销 Altman 和 Brockman 职务、撤销重组、剥夺 1340 亿——也不是对”隐瞒”的对应惩罚。
这些救济对应的是另一件事:控制权的彻底翻转。
而控制权这件事,在公司治理学里不是一个抽象概念。它由几个具体的杠杆构成,每一个杠杆都有自己的法律基础、操作机制和现实约束。Musk 的四类救济,正好对应这几个杠杆的不同切入点。
下一节,我们看 Musk 究竟在攻击哪几个治理杠杆——以及为什么这些杠杆在 OpenAI 这种新型组织里,已经形成了一个既互相牵制又互相补强的系统。
夜雨聆风