OpenAI更新价值观,藏着它对未来的判断


4月26日,OpenAI在官网发布了一篇由Sam Altman 署名的文章,题为「Our Principles」。
五条价值观原则:民主化、赋能、普遍繁荣、韧性、适应性。
这是OpenAI自2018年发布Charter以来最重要的一次价值观更新。
这篇文章和更新的价值观原则里藏着OpenAI对未来行业走向的三个判断,而且这三个判断,跟你的公司直接相关,不管你做不做AI。
01.OpenAI新价值观原则
Democratization,民主化
We will resist the potential of this technology to consolidate power in the hands of the few.
我们将抵制这项技术把权力集中在少数人手中的潜在趋势。
Empowerment,赋能
We believe AI can empower everyone to achieve their goals, learn more, be happier and more fulfilled, and pursue their dreams, and that society as a whole will benefit from this.
我们坚信,人工智能能够赋能每一个人,助力人们实现目标、拓展认知、收获愉悦与充实、追逐梦想,最终让整个社会从中受益。
Universal Prosperity,普遍繁荣
We want a future where everyone can have an excellent life.
我们期许一个人人都能享有优质生活的未来。
Resilience,韧性,
AI will introduce new risks, and we will work with other companies, ecosystems, governments, and society to solve them. We will make significant use of our Foundation’s resources to support this work.
人工智能会催生全新风险,我们将携手其他企业、生态伙伴、各国政府与全社会共同应对,并投入基金会大量资源支撑相关工作。
Adaptability,适应性
We continue to believe the only way to meet the challenges of a very unpredictable future is to be prepared to update our positions as we learn more.
我们始终认为,面对充满不确定性的未来挑战,唯一可行的方式,就是持续认知迭代、适时调整自身立场。

02.三个变化,三个信号
我们对比一下2018年OpenAI发布的Charter,有三个地方值得认真看。
信号一,从「我们约束自己」到「世界需要共同治理」
2018年,Charter的表述是「We will」「We commit」「Our primary fiduciary duty is to humanity」,主体是OpenAI,承诺具体,可被追责。
2026年,表述变了,「We believe」「We envision」,责任开始往外转,「Society needs to grapple with each successive level of AI capability」,「Governments should consider new economic models」,「No AI lab can ensure a good future alone」。
这不只是表述的变化,是OpenAI在告诉所有人,AI公司的治理模式,正在从「自律主体」变成「生态参与者」。
从实战角度看,这个判断是准确的。
一家公司估值8000亿美元、产品嵌入全球数亿用户的日常生活之后,「我们自己管好自己」这个逻辑就失效了,因为它的影响力已经超出了任何单一组织可以负责的边界。OpenAI在告诉监管机构、告诉政府、告诉社会,我承认我需要被管,但这件事不能只靠我,需要你们一起来。
这是头部AI公司在监管收紧之前,主动重新定义游戏规则的动作。
信号二,AGI终点论结束了,迭代部署论开始了
2018年的Charter里,AGI出现了12次,是整个文件的组织核心。2026年的版本里,只出现了2次,核心表述换成了「每一个层级的AI能力」。
这个变化背后是一个实质性的战略判断,AI公司的竞争,不再是关于谁先到达AGI这个里程碑,而是关于谁能把当下的AI能力最快、最深地嵌入最多的真实应用场景。
Altman自己说得很直接,AGI这个词「有权力的味道,让人做出疯狂的事」,解法是「orient towards sharing the technology with people broadly」,把技术广泛分发出去,让没有人拥有那枚戒指。
从这里你能看出来OpenAI接下来要打什么仗,不是研究赛,是部署赛,是渗透率的战争。
这对所有正在规划AI战略的公司来说,是一个直接的信号,你的竞争对手也会用同样便宜、同样广泛分发的AI能力,问题是谁先把它用起来,用得更深。
信号三,消失的那条承诺
2018年的Charter里有一条,如果另一个致力于安全的机构在OpenAI之前更接近AGI,OpenAI将停止竞争,转为协作支持。
这条承诺,在2026年的版本里完全消失了,没有删改说明,没有解释。
消失的时间节点,Anthropic,正是由前OpenAI安全研究员创立,在部分二级市场的估值已经超过OpenAI。
这个信号很清楚,AI实验室之间的「理想主义合作时代」结束了,全面的商业竞争开始了。2018年OpenAI认为自己可能不是最终抵达AGI的那个,所以愿意让路。2026年的OpenAI,不再准备让路给任何人。

03.对我们有什么启发
如果你是一个管理者或者企业决策者,从OpenAI这次价值观更新里,你应该看到三件事。
第一,AI基础设施正在向公用事业化方向走。
从「我们约束自己」到「需要多方共治」,这是一家公司在告诉监管,请把我当电网、当自来水来管,不要把我当一家普通的科技公司。
公用事业化有两面,一面是监管收紧,另一面是护城河变深,因为替换成本会变得极高。
从这里你能预判的是,未来几年内,AI大模型的监管框架会比现在严格得多,合规成本会上升,但头部玩家的地位也会更难被挑战。对于正在选择AI供应商的公司来说,这个判断很重要,你选的不只是一个工具,是一个正在努力成为基础设施的合作伙伴。
第二,AI能力的竞争,已经从「有没有」变成了「深不深」。
迭代部署论的核心是,AGI在不在不重要,你今天的AI能力有没有真正嵌进你的业务流程才重要。
OpenAI用价值观文件表达的战略判断是,接下来的竞争在部署深度,不在模型能力差距。
对于还在观望的公司,这个信号的含义很直接,等AI更成熟再用的策略,代价正在快速增加。因为你的竞争对手也在用同样便宜、同样好用的工具,而他们在应用层面的积累每天都在拉大差距。
第三,你们公司的价值观,现在是约束工具还是解释工具?
这是从OpenAI案例里能带走的最直接的东西。
Universal Prosperity那条原则里,Altman直接把已经在做的商业决策,大量购买算力、垂直整合、全球建数据中心,放进价值观里,然后说这些都是信念的体现。这是用价值观解释商业行为,不是用价值观约束商业行为。
我不评价这件事对错,我想说的是,这种转变在几乎所有快速规模化的公司里都会发生,而且往往是无声无息发生的。你需要知道自己的价值观现在是哪一种。
04.简单总结和可以做的动作
拿出你们的价值观,做两个测试:
第一,这里有没有任何一条,在做决策时真的让我们不舒服过,如果没有,这个文件是解释工具,不是约束工具。
第二,和上一个版本相比,消失了什么增加了什么,消失的东西比增加的往往更能说明你们真实的选择。
关于AI战略的判断,你选AI供应商,不只是在选工具,是在选一个正在走向基础设施化的生态合作方,它的价值观和战略走向,会直接影响你能用它做什么、它允许你做什么。
OpenAI这次更新,是一次非常公开的战略表态,值得认真研究一遍。
对于个人来说,也有一个有趣的视角。
下次看到任何公司,包括你的竞争对手,发布价值观更新,第一个关注点不是「他们说了什么」,是「他们的战略重心发生了什么变化,他们对未来的判断是什么」。
OpenAI这次价值观更新,表面是价值观,底层是战略判断,是在告诉世界,这个行业的游戏规则正在被重写。
价值观更新,是组织和领导者对未来的公开押注。
读懂它,能比读财报更早看到方向。
以上。既然看到这里了,如果觉得不错,随手点赞、在看、转发三连吧。如果想第一时间收到推送,也可以点个星标~⭐

企业文化是感受学企业文化要美,不要完美企业文化是品牌的基因文化美学智谱3000亿企业文化和经营企业文化和管理企业文化和战略品牌危机背后的文化消失客户至上还是名声至上拼多多本分文化拼多多为世界带来了什么新东方困在原地

出海文化融合工具GGCR职场诗人测评职场能量测评CHI文化健康度测评O.A.S.I.S职场测评

胖东来的秘密优思益暴雷与董宇辉WSBK张雪夺冠永辉学胖东来失败特斯拉的新使命和马斯克的野心奈飞文化操作系统星巴克中国怎么就卖了?本田在华「本土化」深陷困局胖东来10 块钱与890万之间的选择始祖鸟道歉差异LABUBU和泡泡玛特的哲学

夜雨聆风