以全人类之名,行资本之实?OpenAI 96 小时权力混战与十年演变,藏着使命与商业的终极博弈

以全人类之名
OpenAI 十年治理实验的解剖
开篇:九十六小时
2023年11月17日中午前后,旧金山湾区,OpenAI首席科学家伊利亚·苏茨克维(Ilya Sutskever)用短讯约山姆·奥尔特曼(Sam Altman)次日正午参加一个Google Meet视频会议。会议开始后不到十分钟,奥尔特曼在镜头前得知自己被解职。董事会随后发布的公告措辞克制但含义严重——称奥尔特曼“在与董事会的沟通中并非始终坦诚”(not consistently candid)。公司主要投资方微软——彼时已累计投入逾百亿美元资本与云计算资源——据报道在决议公布前仅收到分钟级的通知。
这是美国企业治理史上罕见的一幕:一家估值约八百亿美元、产品月活超过一亿的公司,其联合创始人兼CEO被一个只有六人、此前鲜少为公众所知的非营利董事会,通过一场视频会议拿下。
接下来九十六个小时,OpenAI经历了三任CEO的交替。11月18日,据《卫报》与彭博等媒体的后续披露及苏茨克维2024年10月在马斯克诉OpenAI案中的宣誓证词,董事会曾在周六一度探讨让OpenAI与竞争对手Anthropic合并——这家公司恰由若干因安全理念分歧而出走OpenAI的前员工创立。根据苏茨克维的证词,当OpenAI高管警告董事会”若奥尔特曼不回归,公司将崩溃,这与OpenAI的使命相悖时,董事海伦·托纳(Helen Toner)回应的大意是——公司解体或许正与其安全使命一致。
事情的转折来自员工。周日傍晚,“OpenAI离开了它的人就什么也不是”(OpenAI is nothing without its people)的口号开始在社交平台上同步出现。到周一上午,在总数约770名员工中,已有约500人署名一封致董事会的公开信,要求董事会集体辞职并恢复奥尔特曼职务,否则集体离职加入微软——微软此时已公开邀请任何一名OpenAI员工以同等薪酬加入其新设立的AI单元。到周一晚间,署名人数增至738人,约占全员的95%。更具戏剧性的是,联署者包括伊利亚·苏茨克维本人——亲自解职奥尔特曼的那位首席科学家。
11月22日深夜,奥尔特曼回归。原董事会六名成员中的五人出局,仅亚当·德安杰罗(Adam D’Angelo)一人留任;新任董事会主席是前Salesforce联合CEO布雷特·泰勒(Bret Taylor),前美国财政部长拉里·萨默斯(Larry Summers)加入。微软获得一个无投票权的观察员席位。
如果只把这九十六小时读作一场高管人事风波,它就被浪费了。它真正揭示的,是一个公司法意义上的奇异事实:OpenAI章程上最高权威的非营利董事会,动用了它被赋予的全部法律权力——结果发现那权力在组织的真实权力结构面前不堪一击。这一幕发生的时候,距离OpenAI作为一家‘旨在确保通用人工智能造福全人类”的非营利机构成立,仅过了不到八年。
本文试图把这段演变讲清楚——不是作为AI行业的编年史,而是作为一份治理研究:一个以“全人类”为信义义务对象、以“资本服从于使命”为结构创新核心的组织,如何在不到十年里,完成一场几乎是其反面的重组。这个过程暴露的结构性困境,对NGO——尤其是那些正在讨论混合结构、规模扩张、资本合作的使命型组织——比对AI行业更具直接的镜鉴意义。
一
一个从设计上就矛盾的组织(2015—2018)
OpenAI成立于2015年12月,由奥尔特曼、埃隆·马斯克、格雷格·布罗克曼、伊利亚·苏茨克维等十余人共同发起,注册为特拉华州非营利机构。初始新闻稿宣布的融资承诺是10亿美元,出资方包括马斯克、奥尔特曼、布罗克曼、彼得·蒂尔、里德·霍夫曼、杰西卡·利文斯顿,以及AWS、Infosys和YC Research等机构。
但这10亿美元从一开始就是一张修辞意义大于财务意义的支票。据公司自身披露,至2019年承诺转为实质到账的资金仅约1.3亿美元;其中马斯克一人的累计捐赠据OpenAI官方口径不超过4500万美元,马斯克在后续诉讼中自陈金额约为3800万。也就是说,在其非营利存在的前四年,OpenAI的真实资本基础大体相当于一家中等规模基金会——而它试图追赶的Google DeepMind,背靠的是市值万亿美元的字母表公司。
2018年4月,OpenAI发布了《章程》(Charter),确立了一组原则。其中最具法律修辞分量的一句是:“我们首要的信义义务是对全人类的”(Our primary fiduciary duty is to humanity)。这是一个在公司法历史上非同寻常的条款。传统非营利组织的董事会对”公共利益”或特定”慈善目的”负有信义义务;但把对象直接指向”humanity”,在英美信托法框架里几乎找不到先例。
这里就出现了OpenAI治理架构的第一个深层裂缝:“全人类”在法律上并不构成可诉主体。加州和特拉华两州的非营利监督权掌握在各自的总检察长手中,而总检察长代表的是本州公众,不是”全人类”。董事们如果偏离使命,理论上可被总检察长追究——但前提是能够证明偏离对本州慈善信托构成具体损害。“对全人类的义务”在纸面上很宏大,在司法工具箱里却几乎没有对应的扳手。这是一句安抚式的修辞,其约束力几乎完全依赖于董事个人的自觉以及外部舆论压力。
同年,马斯克离开董事会,官方理由是其电动车公司Tesla在自动驾驶方向的AI投入可能构成利益冲突。另一个背景是:据后来的邮件披露,他曾试图说服董事会让Tesla收购OpenAI未果,并在离开前夕向联合创始人发信警告,若组织“走向科技初创公司而非非营利机构”,他将停止资助。奥尔特曼次日的回信只有一句核心意思——他依然支持非营利结构。这段通信在2024年马斯克起诉OpenAI一案的证据开示中被公开,成为整个诉讼最关键的物证之一。
这三年(2015—2018)常被描述为OpenAI的“理想主义阶段”。但与其说这一阶段OpenAI的非营利身份是纯粹理想,不如说它承担着两个在本质上不兼容的功能:对内,非营利身份是一个招人的品牌——吸引那些拒绝受雇于Google或Facebook的研究员,让他们相信自己是在为人类工作而不是为股东;对外,非营利身份是一块监管盾牌——它让公司能够以“公共利益研究机构”的姿态游说政策制定者、获取合作便利、规避通常会落到大型AI实验室头上的商业怀疑。
这两个功能并非随着后来的商业化才出现矛盾。它们从第一天起就嵌在设计里。一个以“造福全人类”为口号的组织,同时需要招募世界上最贵的人才、购置每台三十万美元的DGX服务器、支付与大型科技公司竞争的薪酬——这条缝隙不是发展过程中“不小心”裂开的,而是地基本身就有的断层线。
二
2019年的发明:
有限营利结构的法律解剖
到2018年底,这条断层线已经不可忽视。AI模型的训练成本以接近每年十倍的速度上涨,而慈善捐赠的渠道无法以同样速度放大。根据后来的披露,奥尔特曼曾试图以纯非营利形式募集1亿美元,但“迟迟没有打到足够的钱”;靠继续募捐走不通。
2019年3月,OpenAI宣布了一项此后被反复解剖的结构创新:在非营利母体OpenAI, Inc.之下,设立一个“有限营利”(capped-profit)的有限合伙实体OpenAI LP。母体以普通合伙人(GP)身份控制LP;投资人以有限合伙人(LP)身份进入,其投资回报被设定上限——首轮投资人最高可获得本金的100倍回报,此后上限递减。
这个结构的灵巧之处在于,它在表面上同时解决了三个问题。第一,它打开了资本入口——投资人可以期待回报,只是上限被设定;第二,它保留了使命优先——LP的运营协议明文规定,公司可能永远不盈利,建议潜在投资者“以近似于捐赠的心态”参与;第三,它延续了非营利治理——GP(即非营利母体)拥有对LP的绝对控制权,董事会成员法律上仍对“全人类”负责,而非对出资人负责。
在舆论层面,有限营利模式被广泛誉为一种“驯服资本的新架构”。它吸引了微软在2019年7月投下的首笔10亿美元,以及2023年初再追加的100亿美元投资承诺。但当我们把这个结构的法律文本和后来的实际运作对照,三处关键的薄弱点就显现出来。
第一处:回报上限的实际效力存疑。100倍回报对早期投资人而言,在可见的时间尺度内几乎构成一个虚设上限——要触及这个上限,意味着OpenAI达到万亿美元级别的估值并持续产生利润。更具深意的是,据《The Information》与《经济学人》的独立报道,OpenAI在2023年前后悄然修改了相关条款,允许回报上限自2025年起每年增长20%。这一调整OpenAI从未主动公开披露,而以年增20%计算,名义上限几乎每五年翻一倍——四十年后将扩张千倍有余。也就是说,那个曾作为“驯服资本”标志的上限,在制度层面已经被一项多数公众从未知晓的技术性修订架空。
第二处:非营利控制权在法律上绝对、在实操中脆弱。非营利母体对LP的控制建立在“董事会独立且有能力履行监督职责”这一假设之上。但董事会本身是自选任制——现任董事选择新任董事——且人数常年只维持在六到九人之间。这意味着一个或两个董事的更替就可能显著改变组织的内部权力平衡,而任命过程缺乏任何外部制衡。
第三处:员工激励与使命方向存在结构性错位。OpenAI员工持有的不是传统股票,而是与LP利润挂钩的“利润参与单位”(Profit Participation Units, PPU)。PPU的价值随公司估值波动——2021年的一次员工股份出售,估值是140亿美元;2025年4月软银主导的融资轮,估值跃升至3000亿美元;同年10月员工二级市场出售完成后,估值正式定格在5000亿美元,超越SpaceX成为全球估值最高的初创公司。对早期员工而言,这意味着四年间名义财富增长约35倍。一份在董事会之外的“影子激励合同”——它把数百名核心员工的经济利益,牢牢绑定在“公司估值继续上涨”这一变量上,而不是“使命得到维护”。
这三处薄弱点共同构成了有限营利结构的真实图景:它更像是一个对资本友好的治理包装,而不是一个对使命具有刚性保护能力的制度安排。章程上的约束机制是存在的,但它们大多诉诸董事会的道德自觉或外部舆论压力,而不是可执行的法律武器。这个结构之所以长期被视为创新,更多因为没有经历过压力测试——直到2023年11月,它经历了第一次,并且失败了。
三
2023年危机的真正含义
九十六小时的主流叙事,通常聚焦于“董事会对CEO”的对抗。但这个框架遗漏了那场危机中最重要的事实:决定结果的,不是董事会,不是投资人,不是微软,而是签下联名信的约738名员工。
从法律上看,OpenAI, Inc.的董事会拥有解除CEO的完全权力。他们行使了这一权力。微软拥有巨额经济利益但没有董事会席位,纳德拉在整个周末的电话与公开发言中扮演的是施压者而非决策者。投资人——包括软银、红杉、Thrive Capital等——具有强烈利益诉求但没有正式治理权。最终让董事会撤回决议的,是一份来自95%员工的最后通牒:你们若不辞职,我们集体离开。
这种动力机制在传统公司法框架里几乎没有正式地位。美国公司法中,员工通常不是治理主体;他们的利益通过雇佣合同得到保护,但不构成对董事会决议的制度性制衡。但在OpenAI这样的知识密集型组织里,一家公司的资产几乎完全等于其员工的人力资本——训练GPT-4的工程师团队、核心研究员、基础设施工程师,他们的集体退出意味着公司的价值在一夜之间蒸发。微软对此心知肚明,因此它做出那个关键的战术性动作:公开承诺接收任何一位愿意离开的OpenAI员工。这等于在所有员工面前把“集体辞职”从一个讨价还价的威胁,变成一个现实可执行的选项。
董事会在这个结构面前没有任何可用的对策。他们法律上的权力是真实的,但行使这个权力的前提是组织会在他们的决定下继续存在——而一旦员工宣布集体退出,整个组织就不再存在,董事会的“权力”也就无物可施。于是出现了一个在治理研究中值得反复咀嚼的现象:正式治理结构被非正式的员工集体行动架空,且这一架空是公开的、速度惊人的、几乎没有法律反制空间的。
一个顺便需要指出的细节是:首席科学家苏茨克维,正是他主导了罢免奥尔特曼的过程,也正是他在约72小时内在联名信上签下了自己的名字,并在X上公开表达“深深后悔”。他在2024年10月接受马斯克案宣誓录证时承认,他依赖首席技术官米拉·穆拉蒂(Mira Murati)提供的材料,但并未独立核实其中的关键指控。这个细节对“治理主体”的问题提供了另一个层面的观察:在一个高度技术化、节奏极快的组织里,即便是坐在董事会席位上的内部核心人物,也可能在关键时刻没有完整的信息与时间做出审慎判断。董事会决议的“合法性”面临的不仅是外部压力,还有其内部信息基础的脆弱性。
这一切对使命型组织的启示不止于“要处理好CEO和董事会的关系”这种表面结论。它揭示的是一个更深的规律:当一个组织的资产主要由人才构成,当这些人才高度可流动且被外部资本积极争夺,那么无论章程如何设计董事会的法定权力,组织的实际主权都已经分散到员工阶层手中。这在中国本土许多已经做到一定规模的NGO里正在同步发生——核心研究员、项目官员、高级筹款人员,他们对组织的实际控制力,常常远超出组织章程的描述。2023年11月的OpenAI,只是把这个规律在48小时内、在全球聚光灯下演示了一次。
四
从有限营利到PBC:一场尚未结束的重组
2023年之后,OpenAI的路径实际上已经转向。2024年中,公司开始酝酿将营利实体从LP重组为公益公司(Public Benefit Corporation, PBC)。2024年9月,加州总检察长罗布·邦塔(Rob Bonta)和特拉华总检察长凯西·詹宁斯(Kathy Jennings)先后启动正式审查程序——因为OpenAI, Inc.注册于特拉华,运营于加州,任何涉及慈善资产转移的重大重组都在两位总检察长的监督权限之内。
这次审查的技术核心,是一个看似枯燥但实际上决定整个重组合法性的问题:非营利母体持有的那份“控制权”价值多少?
按加州的慈善信托原则,非营利组织的全部资产“不可撤销地”专属于其慈善目的。如果这些资产以过低的价格转入营利实体,本质上就是在盗用慈善资产。加州历史上的先例是鲜明的——1990年代,加州蓝十字保险(Blue Cross of California)从非营利转为营利后,被要求将超过30亿美元的股票转入两个独立基金会作为补偿;Health Net也经历了类似的强制性补偿安排。
与此形成对照的是重组过程中出现的一些反向压力。2025年2月10日,马斯克牵头的投资财团向OpenAI非营利母体发出一个金额令所有人意外的收购要约——974亿美元。四天后OpenAI董事会予以拒绝,但这个数字已经被写进了整个博弈的底牌:它相当于向两位总检察长提出了一个难以回避的问题——如果马斯克财团都愿意为非营利实体出价近千亿美元,那么它的“公允价值”至少不应该显著低于这一水平。
由60余家加州非营利组织组成的“Eyes on OpenAI”联盟,以及华盛顿的公众公民组织(Public Citizen),在2024年末到2025年全年反复向两位总检察长施压,援引蓝十字先例要求将OpenAI慈善资产转移至独立基金会。他们的核心论点是:自2023年11月以来,OpenAI事实上已经作为一家营利公司在运作,非营利母体不过是营利实体的橡皮图章。
最终的结果是一个折衷方案。2025年10月28日,OpenAI宣布重组完成:营利实体转为特拉华公益公司,正式名称为OpenAI Group PBC;原非营利母体更名为OpenAI Foundation,持有PBC约26%的股权,按当时估值约合1300亿美元;微软持有约27%,折合1350亿美元;其余约47%由员工和其他投资人持有。如果PBC的估值在未来十五年内翻十倍,基金会还可额外获得更多股权。基金会还保留任命PBC董事的权力,并通过一个“安全委员会”对AI模型发布拥有暂停权。
邦塔和詹宁斯两位总检察长均发布了“无异议声明”。邦塔公开表示会“持续密切关注”OpenAI是否履行慈善使命。但批评者的质疑并未消散——Eyes on OpenAI联盟指出了重组中若干结构性弱点:PBC董事会和基金会董事会之间允许人员重合;安全委员会的独立性缺乏具体保障;一旦基金会只作为PBC的少数股东存在,其在治理上的影响力将主要依赖于与多数股东(包括微软)的合作意愿,而非法律上的刚性控制。
2026年2月,有研究者观察到OpenAI的官方使命表述中悄然删去了“safely”(安全地)一词。这一类小幅修订本身或许不足以说明任何决定性问题,但它与2023年悄然修改回报上限条款的模式高度相似——在一份以使命宣言为核心合法性来源的组织文件里,关键措辞正在被低调而持续地调整,且几乎从不伴随公开解释。
与此同步,OpenAI的商业化轨迹继续加速:2025年4月软银领投的400亿美元融资,使估值达到3000亿美元;同年10月的二级市场交易将估值推至5000亿美元。2026年2月一轮110亿美元的新融资,据报道推动估值突破8000亿美元。公司同时启动数据中心扩张,与甲骨文、英伟达、AWS等建立庞大的算力供给合约。
更具象征意义的是那一场仍在进行中的诉讼。马斯克起诉OpenAI、奥尔特曼、布罗克曼及微软的案件,经过联邦法官伊冯娜·冈萨雷斯·罗杰斯(Yvonne Gonzalez Rogers)驳回OpenAI撤案动议后,定于2026年4月27日在奥克兰联邦地区法院开始陪审团遴选。诉讼原始标的为1340亿美元损害赔偿;2026年4月初,马斯克修改了诉讼请求——任何胜诉所获赔偿将全额捐给OpenAI的非营利基金会,而非他本人。这一修改在法律上削弱了OpenAI将诉讼定性为“商业竞争对手的泄愤”的叙事;无论诉讼最终走向如何,审理过程中开示的早期邮件、布罗克曼日记(“it was a lie”等内部记录)和纳德拉的深夜短讯,都将被公开审视。
值得注意的一个细节:马斯克通过诉讼希望实现的,是将OpenAI“恢复为一个真正的非营利组织”——这与他本人先前收购要约所传递的信号并不完全一致。但这不是本文要评判的问题。值得关注的是,无论此案走向何方,整个重组的合法性将在法庭上被完整地重新审视一次,而那一次审视的结论,可能比2025年两位总检察长的“无异议声明”更具持久性。
五
四个结构性命题——对NGO治理的直接含义
把OpenAI这十年当成一个案例来读,最容易得出的结论是“使命型组织做大后难免变质”。这个结论没有错,但过于笼统,也无法指导任何实际的治理设计。下面提炼四个更尖锐、也更具可操作性的命题——它们是OpenAI的故事留给NGO——尤其是正在讨论章程改革、规模扩张、混合结构、资本合作的机构——的结构性镜鉴。每个命题都尝试从抽象论证推进到具体场景,并援引具体的国内外机构作为对照参照。
命题一:受益人越模糊,使命漂移越无代价。
OpenAI章程里“对全人类的信义义务”是一个典型的例子。它在修辞上极具号召力,在制度上却几乎无约束力——因为“全人类”无法起诉董事会。任何董事会决议都可以被论证为“符合全人类利益”,也可以被论证为“违背全人类利益”,而两种论证都不会触发任何可执行的司法程序。
对NGO的启发并不只是“要把受益人写得更具体”。它更深层的含义是:使命声明中的受益人范围,决定了使命违约的成本。受益人越宽泛(全人类、公众、弱势群体、子孙后代),越少有主体有资格起诉;越少有主体能够起诉,使命漂移就越低成本。
在中国语境下,这个问题的症结点不在章程文本,而在问责链条。一家在民政部门登记的基金会,章程里通常会写明宗旨、业务范围与受益对象,但一旦发生使命偏离,理论上可以启动问责的主体——业务主管单位、登记管理机关、理事会内部的监事会、捐赠人——在实际操作中各有掣肘。业务主管单位的主要关切往往是”不出事”,而非”是否偏离使命”;登记管理机关依赖常规年检,缺乏对使命保真度的实质审查;捐赠人在中国慈善法框架下发起诉讼的先例极少。这意味着,“使命违约”在多数情况下不会带来实际法律后果——这与OpenAI面对的问题在结构上是同质的,只是触发机制不同。
2011年的中国红十字会郭美美事件,是这一结构性问题的一次暴露——不是因为章程没有写好,而是因为章程里的问责通道在舆论危机爆发前没有任何主体在实质性地使用它。随后红会启动的治理改革、社会监督委员会的设立、信息披露机制的扩展,本质上是在章程之外补建一套”使命违约能够被发现并被追究”的外部机制。这个补建过程的必要性,恰恰证明了原有章程中”对社会负责”的条款在问责层面的空转。
这对NGO章程设计的启示是双层的。第一层是表述层面——避免使用”公众”、“社会”、“有需要的人群”这类缺乏可界定性的表述,尽可能把受益人界定到具体的地理、人口、身份维度,这样问责主体才可能找到。第二层是制度层面——在章程和治理规则里明确指定至少一个”使命守护者”角色,它可以是独立监事会、捐赠人代表会议、专职伦理委员会,关键是它必须有查阅文件、质询管理层、向外部披露的实际权力,而非仅挂名存在。如果不从章程设计阶段就把”谁有资格追究使命违约”这个问题回答清楚,那么整套使命锁定机制都是虚设。
命题二:使命型组织的规模存在天花板,跨越之后保真度几乎必然下降。
OpenAI的八年演变讲的是一个直观但被刻意忽视的规律:当一个使命型组织的规模——无论是员工人数、预算体量,还是外部依赖程度——超过某个临界点,使命保真度就会进入不可逆的下滑通道。这不是因为领导者变得邪恶,而是因为治理工具的”带宽”是有上限的。一个六人董事会每季度开一次会,不可能对一家拥有数千员工、数百个在研项目、数百亿美元预算的组织做出具有实质穿透力的监督。
这一规律在国际NGO的历史上已有先例。2018年,乐施会(Oxfam)2011年海地地震救援期间的性剥削事件被英国《泰晤士报》揭露,涉事员工包括时任海地国家主任。事件爆发后,独立调查委员会的核心发现是:乐施会的规模扩张(在近百个国家运营,员工数万计)远远超出了其总部合规、问责与文化治理的实际带宽,使得区域和国家办公室在面对当地权力不对称时,形成了事实上的”合规盲区”。英国慈善委员会(Charity Commission)2019年发布的调查报告认定,乐施会的治理失灵不是偶然的个人行为,而是”系统性”的。这一判定随后推动了国际发展部门(DFID,现FCDO)对援助机构问责制度的重构。
这一规律在中国语境下的表达方式有所不同,但逻辑同构。壹基金从2007年作为”红十字会壹基金计划”成立,到2010年独立注册为深圳公募基金会,再到此后承担玉树、雅安、鲁甸等重大灾害救援,十余年间经历了从个人名人基金到制度化基金会的完整演化。其治理架构——理事会以商界领袖为主、监事会引入独立监事、执行团队专职化——被视为民间基金会治理的一个相对成熟版本。但即便是治理相对完善的壹基金,规模跃升期间也曾遭遇2014年雅安地震后的舆论质疑风波。这次风波的本质并非资金去向有问题——后续的第三方审计均证明资金使用合规——而是组织规模扩张导致其信息披露的速度、细节、对公众质疑的响应能力跟不上公众期待。信任危机在这种情况下的触发,比实际治理失灵要早得多。
当前国内部分大型公募基金会——包括更名后的中国乡村发展基金会(原中国扶贫基金会)、儿慈会等——正处于或已过了类似的临界点。年度资金规模达到数亿乃至数十亿,业务线从单一救助扩展到国际发展、社区发展、品牌公益、企业社会责任合作等多条,而理事会的会期、规模和审议深度未必同步跟上。OpenAI在规模突破万人和估值超过千亿美元之前,章程是一份每个员工反复诵读的文本;在此之后,它慢慢变成公关文稿的一页。使命型组织的管理者必须警惕自己组织里是否也正发生同一过程——章程的”阅读频率”和组织规模的曲线往往是背离的,这本身就是一个值得跟踪的早期指标。
这并不是说NGO不应该做大。这是说,在规模扩张的同时必须预先扩张治理工具——具体而言包括:将理事会规模和专业分工随预算线性扩张、设立专职合规官并使其直接向监事会(而非执行团队)汇报、建立受益人反馈的结构化渠道、引入定期的外部第三方治理评估。否则规模本身就会反噬使命。
命题三:员工阶层正在成为使命型组织隐形的治理主体。
2023年11月的九十六小时中最关键的观察是,决定结果的是约738名员工的集体行动,而不是六名董事的法定权力。这不是OpenAI特有的现象,而是知识密集型组织的普遍逻辑——当组织的核心资产是人的脑力而非固定资本,员工的集体退出威胁就构成对管理层与董事会的实质性约束。
对NGO而言,这个现象被长期低估。中国本土NGO的组织规模在过去十年从十余人扩张到上百人的情况并不少见,核心研究员、项目官员、高级筹款人员构成事实上的组织中枢。一个可观察的现象是:过去五年内,中国社工和公益部门出现了显著的人才横向流动——某家基金会的核心项目官员离职后加入另一家基金会担任秘书长、前国际NGO中国办公室的研究员出任本土机构总干事、大量社企从业者流入商业性ESG咨询,等等。这种流动网络的密度,意味着任何一家机构的核心员工群体,在使命判断上一旦与管理层发生持续分歧,其可行的退出路径远比十年前多。
这一结构性事实对NGO治理的含义有两面。一面是风险:如果一家机构的”灵魂”只存在于少数核心员工的隐性共识里——章程写得模糊、使命未充分文本化、日常运营依赖个人判断——那么这些员工的去留就直接决定使命能否延续。一位秘书长的离职可能带走三到五名核心同事,接手者即便个人素质优秀,也需要一到两年才能重建组织的使命共识。另一面是资源:在章程设计相对薄弱、外部问责通道不畅的环境下,内部员工的集体文化反而可能是使命漂移最有效的制衡器。一家机构如果能在内部建立”对使命偏离及时发声”的文化,并给予这种发声以制度化的安全通道,那么员工共识的稳定性可以在一定程度上补偿正式治理工具的不足。
具体的治理设计应考虑几个方向。第一,将核心员工代表正式纳入治理结构——例如员工理事(非投票或有限投票)、年度员工大会对战略方向的非约束性磋商。这在国际NGO里已经不是新做法,Oxfam在2019年治理改革中就引入了员工代表机制。第二,建立明确的”使命申诉渠道”——让员工对感知到的使命偏离可以合规地在组织内部发声,而不必诉诸集体辞职或媒体爆料这种极端手段。第三,把章程的关键条款——尤其是受益人定义和使命约束机制——明确放入员工手册和入职材料,让章程从”挂在墙上的字”变为日常工作的实际参照。OpenAI在2023年以近乎最昂贵的方式证明了这一条规律的存在,使命型组织不必再支付同样的学费。
命题四:混合结构是一把双刃剑——设计细节决定它是创新还是遮羞布。
OpenAI的2019年创新和它2025年的PBC转型,都属于一个更广义的话题:使命型组织应当如何与商业资本共处。这个问题对当前国内NGO界有极直接的相关性——社企注册路径不断细化、基金会”公益+商业”的合作模式日益频繁、外资基金会减少后的替代性资金结构正在摸索。OpenAI之外,还有两个对照性案例值得并置审视。
第一个是Mozilla。2003年,Mozilla基金会在加州注册为501(c)(3)非营利组织;2005年,它以100%持股方式成立了全资子公司Mozilla Corporation,负责Firefox浏览器的开发与商业合作。这个结构从外观上看与OpenAI 2019年的设计相似——非营利母体控制商业子体。但在几个关键细节上,两者截然不同。Mozilla Corporation没有外部股东、不发行股票期权、不支付分红,其所有利润必须回流到Mozilla项目本身;基金会对子公司的全资持股结构也意味着不存在”投资人回报上限”这种需要反复谈判、可以被悄悄修改的条款。这一设计已经运行二十余年,中间虽然也经历过Mozilla Corporation裁员、Firefox市场份额下滑等商业压力,但其与基金会使命的结构性绑定从未松动。
两者的差异说明什么?当商业子体引入外部投资人、设立可交易的股权或类股权工具,它与使命型母体之间的治理张力就不可逆地增加。OpenAI的PPU(利润参与单位)在员工层面已经制造了一个独立于使命的激励向量;Mozilla Corporation没有类似工具,因此不存在这一层张力。一个NGO如果考虑设立营利子体——无论是社企、咨询公司还是技术平台——这个细节不是技术问题,而是设计原点的问题:一旦引入外部股权,后续所有的治理工具都会被这一决定反向约束。
第二个对照是水滴公司。它不是一个”使命型组织转向商业化”的故事,而是一个”商业组织长期借用公益外观”的故事。水滴公司2016年由美团前员工沈鹏创立,旗下同时运营水滴筹(大病众筹平台,不向筹款人收取服务费)、水滴互助(已关停)和水滴保(保险经纪业务)。2021年在纽交所上市时,其招股书显示保险经纪业务贡献了约89%的营收,而水滴筹本身不产生收入,反而需要公司贴补营销费用。水滴筹的真正角色,是为水滴保导流——根据2018年数据,水滴保首年保费的85.1%来自水滴筹与水滴互助的内部流量转化。
水滴的故事是一个反向的镜鉴:它揭示的是”公益外观”在商业语境下的市场价值。当一家公司能够通过慈善般的界面触达三到四亿用户的捐款行为,同时将其中的信任转化为保险销售的精准流量,“公益属性”本身就成为一种经济资产。2019年底媒体曝光的”扫楼筹款”事件、2023年开始的3.6%服务费正式收费,都是这一资产被渐次兑现的节点。
水滴的案例对NGO的警示并不是”不要和这类公司合作”——许多NGO与水滴公司及同类平台有实际业务往来,合作本身未必不合理。真正的警示是:当NGO将自己的品牌、公信力、捐赠人名单与任何商业实体对接时,必须预先确立一套明确的边界规则,包括数据墙、品牌使用范围、收益分成机制、退出条款等等。OpenAI章程里的那句”以近似于捐赠的心态参与投资”听起来浪漫,但在实际执行层面完全依赖投资人的自律——这对任何现实中的资本合作方都是不可靠的假设。
综合Mozilla的成功先例与水滴的警示性案例,以及OpenAI的失败教训,可以为考虑混合结构的NGO提炼一份最低限度的制度防御清单:(1)营利子体若必须设立,应优先采用全资控股而非引入外部股东的结构;若必须引入外部股东,应明确禁止期权、利润参与、业绩对赌等类股权工具渗透到员工层面,防止员工激励脱离使命向量;(2)在章程和股东协议层面明确规定”使命优先”条款的可执行路径——不是”董事会应当考虑使命”,而是”若董事会决议被认定与使命冲突,该决议自动无效”,配以具体的触发机制和独立评估程序;(3)商业子体和非营利母体必须设立实质性的人事、财务、品牌隔离——特别是核心决策岗位不得跨实体兼任;(4)所有资本合作协议应预设退出条款,规定在使命冲突不可调和时如何分割资产、品牌归属与历史数据;(5)将上述条款在组织公开文本中透明披露,而非作为内部协议。
这些不是万能方案。但它们的每一条,都直接对应着OpenAI十年治理实验中暴露的一个具体漏洞。从他人的学费里提取经验,是NGO研究最朴素也最实用的功能之一。
七
结语
OpenAI的十年,从一个视角看,是一个”使命被资本逐步腐蚀”的故事;从另一个视角看,它也是人类首次在数百亿美元量级上对”使命型组织”这一制度形态进行的大规模压力测试。它用真金白银、真实的人事更迭、真实的法庭证据,把这个古老组织形态的所有关节点——章程的修辞与可执行性、董事会的权力与信息基础、员工的利益与使命的共鸣、资本的节奏与治理工具的带宽——一一暴露在光天化日之下。
对一个NGO研究者而言,OpenAI的价值不在于它提供了一个可以”抄作业”的模板。事实上,无论是有限营利结构还是PBC转型,它们在各自的时点都曾被赞誉为制度创新,也都在后续演变中显示出深刻的内在矛盾。真正值得NGO研究者借鉴的,是这个案例提供的一份详尽的”雷区清单”——哪些结构设计看起来精巧但在压力下会碎裂,哪些章程条款在书写时宏大却在司法层面没有实质效力,哪些治理工具在小规模下看似足够但在规模突破某个临界点后就失灵。
如果说OpenAI这一实验在2026年的当下有一个尚未落定的问题,那就是:它最终是会被纳入”一次有价值的治理实验”,还是被纳入”一次代价高昂的使命背离”。答案可能取决于那个仍在筹建中的、掌握1300亿美元股权的OpenAI基金会,在未来十五年里能够真正做成什么——以及它在面对PBC股东利益与使命义务冲突时,愿意并且能够走多远。
无论答案如何,这场实验留下的治理文献已经足够丰富。它值得每一位使命型组织的管理者、董事和研究者,用比处理AI行业新闻更严肃的态度对待。这也是本文作为一份NGO视角研究报告的核心价值所在——我们不是在研究一家AI公司,我们是在研究自己所处的这整套组织形态的命运。

参考文献
[1]对奥尔特曼被解职当日事件的还原,综合《纽约时报》《华尔街日报》《彭博》2023年11月17日至22日的连续报道。董事会原始公告见OpenAI官方博客2023年11月17日声明。
[2]关于微软收到通知的时机,见《时代》周刊2023年11月22日报道”Sam Altman Returns as OpenAI CEO. Here’s How It Happened”。
[3]2023年10月OpenAI估值约800亿美元,见CNBC 2025年10月28日”OpenAI completes restructure”;2023年11月当时的董事会构成——苏茨克维、亚当·德安杰罗、海伦·托纳、塔莎·麦考利、奥尔特曼、布罗克曼。见维基百科”Removal of Sam Altman from OpenAI”条目(2026年4月查阅)。
[4]见苏茨克维在Musk v. Altman(N.D. Cal. 4:24-cv-04722)案中的宣誓证词,2024年10月1日,相关内容于2026年初解封。
[5]同上。托纳此发言通过苏茨克维转述进入法庭记录,托纳本人对具体措辞尚未公开回应。
[6]员工联名信的动态演变,见NPR 2023年11月20日”Hundreds of OpenAI workers threaten to leave”、《时代》周刊2023年11月22日报道及HubSpot 2023年11月整理的时间线。770名员工总数与738人签署数据来源于NPR同期报道。
[7]新董事会构成,见《时代》周刊2023年11月22日报道。布雷特·泰勒任主席,萨默斯加入,德安杰罗留任。
[8]OpenAI成立公告,见TechCrunch 2015年12月11日报道及OpenAI官方2015年12月11日新闻稿。
[9]关于承诺与实际到位金额的差距,维基百科”OpenAI”条目(2026年4月查阅)援引OpenAI向监管机构的披露,2019年前累计到账约1.3亿美元。马斯克实际出资金额,OpenAI官方口径”低于4500万美元”,马斯克诉讼陈述为3800万美元左右,见CNBC 2026年4月7日报道及Let’s Data Science网站2026年3月”Musk v. Altman”案例梳理。
[10]OpenAI Charter原文,见openai.com/charter(2018年4月9日发布)。
[11]关于马斯克2017年邮件威胁停止资助及奥尔特曼的回复,见CNBC 2025年12月11日”Altman and Musk launched OpenAI as a nonprofit 10 years ago”。相关邮件在Musk v. Altman诉讼中作为证据提交。
[12]奥尔特曼关于融资困难的陈述,见2023年多次公开访谈(包括与Lex Fridman、Bloomberg的访谈)。
[13]OpenAI LP结构及100倍回报上限,见OpenAI 2019年3月11日博客”OpenAI LP”及TIME杂志2025年10月28日”An OpenAI Timeline”。
[14]LP运营协议中关于”近似捐赠”的警示语,见Northwestern大学法学院教授Jill Horwitz致TIME的评论,TIME 2025年10月28日。
[15]微软2019年与2023年投资规模,见OpenAI与Microsoft官方联合公告及CNBC 2025年10月28日报道。微软累计投资超过130亿美元。
[16]关于回报上限每年增长20%的条款修改,首次见于《经济学人》与The Information的报道,后被openaifiles.org系统整理(2025年)。这一修改未经OpenAI主动公开披露。
[17]估值演变数据:2021年140亿美元(Pitchbook);2023年11月约800亿美元;2024年10月1500亿美元;2025年4月软银领投融资3000亿美元;2025年10月二级市场估值5000亿美元,见Bloomberg 2025年10月2日”OpenAI Completes Share Sale at Record $500 Billion Valuation”。
[18]苏茨克维在X(原推特)上的公开致歉,2023年11月20日。
[19]苏茨克维证词内容,见Musk v. Altman案2024年10月1日录证,相关内容于2026年初通过诉讼文件解封后公开。
[20]加州总检察长邦塔及特拉华总检察长詹宁斯的审查,分别启动于2024年9月至10月。见Delaware DOJ 2025年10月28日”AG Jennings completes review of OpenAI recapitalization”官方公告。
[21]加州蓝十字及Health Net先例,见San Francisco Foundation等机构2025年1月29日致邦塔、詹宁斯联名信,及CalMatters 2025年10月30日报道。
[22]马斯克财团的974亿美元收购要约,见维基百科”OpenAI”条目(2026年4月查阅)及CNBC 2025年2月相关报道。要约于2025年2月10日提出,2月14日被OpenAI董事会拒绝。
[23]Eyes on OpenAI联盟与Public Citizen的反对意见,见Public Citizen 2025年9月12日致两位总检察长信函及”OpenAI Files”网站(openaifiles.org)2025年整理的重组问题清单。
[24]2025年10月28日重组最终结构,综合OpenAI官方”Our structure”页面(2025年10月28日更新)、CNBC同日报道”OpenAI completes restructure”及Bloomberg 2025年10月29日Explainer。
[25]邦塔声明,见TIME 2025年10月28日”An OpenAI Timeline”;詹宁斯声明,见Delaware DOJ 2025年10月28日公告。
[26]重组方案的批评意见,见CalMatters 2025年10月30日”OpenAI’s restructuring deal with California is full of holes”。
[27]关于OpenAI使命表述中”safely”一词删除的观察,见Creati.ai 2026年2月23日报道。
[28]2025年估值演变数据,综合Bloomberg、Crunchbase News 2025年10月2日及Pitchbook报道。
2026年2月融资轮数据,见Let’s Data Science 2026年3月”Musk v. Altman”案例整理,援引彼时公开市场信息。
[29]2026年2月融资轮数据,见Let’s Data Science 2026年3月”Musk v. Altman”案例整理,援引彼时公开市场信息。
[30]Musk v. Altman案开庭日期,见CNBC 2026年4月7日报道”Elon Musk seeks ouster of OpenAI CEO Sam Altman”。案件编号:4:24-cv-04722,美国加州北区联邦地区法院。
[31]马斯克2026年4月修改诉请将胜诉所得归于OpenAI基金会,见Law360”Musk v. Altman et al”案件页面及Brownstone Research 2026年4月分析。
[32]布罗克曼日记”it was a lie”等内部证据的公开,见Techbuzz.ai 2026年1月16日整理及冈萨雷斯·罗杰斯法官2026年1月15日28页裁定。
[33]关于中国红十字会2011年郭美美事件后的治理改革,包括社会监督委员会的设立与信息披露机制的改造,见红十字会与红新月会联合会及中国红十字会各类公开资料。
[34]乐施会海地事件及英国慈善委员会调查,见Charity Commission 2019年6月11日发布的”Inquiry report: Oxfam”。该调查为期约14个月。
[35]壹基金组织演化:2007年作为中国红十字会下设专项”红十字会李连杰壹基金计划”成立;2008年在上海设立上海李连杰壹基金公益基金会(非公募);2010年12月在深圳注册成立独立公募基金会深圳壹基金公益基金会。其治理架构包括理事会、监事会和执行秘书长团队。见壹基金官方网站及其年度报告。
[36]Mozilla基金会与Mozilla Corporation的结构,见Mozilla官方”Organizations”页面、维基百科”Mozilla Foundation”与”Mozilla Corporation”条目,及Mozilla Foundation年度审计报告(2021年)。其关键声明——无外部股东、无股票期权、不分红、利润再投资于Mozilla项目——见Mozilla Corporation成立公告(2005年8月3日)。
[37]水滴公司招股书数据,见新华网2021年4月19日报道及新浪科技2021年5月7日上市当日分析。2020年保险经纪收入26.95亿元,占总营收89.1%。
[38]水滴保首年保费的流量转化数据,见水滴公司F-1招股书及财新、新华网等媒体整理。
往期精选


【2026第三届年度峰会深度回顾】重构未来范式,智启全球新程—哥伦比亚大学全球可持续发展峰会再启新程!

刘亚伟博士:如何维持和平与繁荣?中美竞争时代的全球治理前景

【年度评选发布】2026全球可持续发展青年领袖正式揭晓

【2026北京峰会回顾】哥伦比亚大学全球可持续发展峰会2026年3月28日于北京哥大全球中心隆重举行!

【GELA Member 纽约地区招募】官方发布
点击图片查看原文
END
作者:Crystal Yuan
选题指导 :吴大中
排版:侯馨玥、陈若萱
初审:陈若萱|GELA媒体公关部
终审 :GELA执行委员会

夜雨聆风