凌晨,一名男子向 OpenAI CEO 山姆·奥特曼(Sam Altman) 的住宅投掷了一枚燃烧瓶,致使住宅外门起火。
一个小时后,这人出现在 OpenAI 总部楼下,威胁要焚烧了这栋楼。
随后被警方当场拘押。
这次事件发生的时间节点非常敏感:
- 3月31日
— OpenAI 刚完成 1220亿美元融资,估值达 8520亿美元。 - 4月13日
— 《纽约客》发表深度调查:"Sam Altman May Control Our Future—Can He Be Trusted?"(《山姆·奥特曼可能掌控我们的未来——他值得信任吗?》),质疑 Altman 的个人诚信与领导方式。 - 4月10日
— 燃烧瓶袭击,Sam Altman 本人发声,措辞谦逊,承认自己过去有犯错。
这不是硅谷科技高管首次遭遇人身威胁。
在 AI 快速发展、科技公司裁员潮、以及社会对 AI 的焦虑情绪高涨的背景下,针对 AI 公司高管的敌意有所上升。
例如这篇里的观点:AI指数级进化、认知工作被快速替代 - “Something Big Is Happening”|大事确实在发生,是一场漫长而温和的重构。我们每个人都将是参与者,而非旁观者。
但此次燃烧瓶袭击是目前已知针对 Sam Altman 的最严重人身威胁行为。
袭击事件后,奥特曼地发表了一篇情感复杂的长篇博文进行回应。
博客怎么说的
一、我相信什么
AI 是最强的工具,需求无上限——这话说给投资者听。
不会一切顺利,恐惧是有道理的——这话说给质疑者听。
AI 必须民主化,权力不能集中——这话说给监管者听。
适应性至关重要,没人真正懂超级智能——这话是实话。
尤其是这条:"少数几个 AI 实验室做出关于我们未来形态的最关键决定,这是不对的。"
这话从他嘴里说出来,有点反讽。
OpenAI 就是那"少数几个实验室"之一。
二、从四个方面回应
诉诸情感:他罕见地发布了一张与家人的合照,呼吁“希望它能打消下一个人向我们家扔燃烧瓶的念头”
承认焦虑的合理性:他首次公开承认“对AI的恐惧和焦虑是合理的”,并表示自己低估了“文字与叙事的力量”
辩护愿景与承诺:他强调“AI必须民主化,权力不能过度集中”,并承诺推动AI为全人类服务
自我批评与道歉:他为自己“回避冲突”的性格缺陷致歉,并坦诚了在OpenAI发展过程中的失误
这话听起来诚恳,但没说具体伤害了谁,也没说吸取了什么教训。
这是一个公关高手的标准操作:认错的姿态,模糊的内容。
我个人看法
一、还好没有人受伤。
这是最重要的。
不管你对 Altman 有什么看法,炸人家家还要炸大楼,都是不提倡的。
二、这是一篇纯公关稿。
从家人照片开始,以"少一点爆炸"结束,首尾呼应,情绪递进,教科书级的危机公关。
但公关稿的问题在于,它不会改变任何事情。
支持他的人继续支持,质疑他的人继续质疑。
三、关于 AGI(通用人工智能)。
虽然业内一直在说,AGI 会在未来3~5年间很快实现。
但是我个人认为:现在的大模型,本质上还是概率模型。
它预测下一个 token,不是真的理解物理世界。
你问它"太阳从哪边升起",它能答对,是因为训练数据里这么写过,不是因为它见过日出。
所以从基本逻辑判断,这种概率模型是否能通向真正的通用智能,要画个问号。
但这里有个关键点:够不够用。
不需要真的理解世界,只要能通过图灵测试,能替代大部分中低级岗位的工作,那就是够了。
程序员写的代码,有多少是真正的创造性工作?
AI Code,已经比大部分初中级程序员又快又省。
翻译、客服、文案、数据分析……这些岗位的工作内容,大部分是可以被概率模型覆盖的。
所以 AGI 是真是假,这个学术问题很重要。
但对普通打工人来说,更实际的问题是:你的工作,会不会被 AI 替代:AI时代的职业重构并非零和游戏。
四、开个脑洞:刺杀“天网之父”
想象一下,一个来自2045年的反抗军战士,被派回2026年的旧金山。
目标:消灭“天网”于萌芽。
他的刺杀名单上,萨姆·奥特曼的名字排在第一位。
五、AI 时代的信任危机
这件事,让我想起来之前 OpenAI 的公司权力之争,董事会驱逐了奥特曼,后来又因为全体员工强烈支持请回了他。
其二,Anthropic 公司因为发展大模型的应该先安全理念 从 OpenAI公司离开,开发了 Claude 模型。
但是就在前不久 Claude code的一次源码泄露事件,显示这个家公司在偷偷收集使用者的日志信息:
第一件事显示了治理机制的失效:
OpenAI 独特的非营利控制营利架构,本意是确保AGI造福全人类。
但内斗证明,当理想(董事会中的安全派)与现实(奥特曼代表的商业化、加速派)剧烈冲突时,这套架构几乎被瞬间撕碎。
规则可以被权力颠覆,这动摇了人们对其承诺的信任根基。
第二件事向我们揭示了典型的“安全悖论”:
- 理想叙事
Anthropic 是为了全人类的安全,所以要发展更可控、更对齐的AI。 - 现实行动
但在发展过程中,首先牺牲了用户的数据隐私安全,来训练和优化模型。
在AI军备竞赛中,商业逻辑和生存压力,足以腐蚀任何纯粹的初始理想。
这次爆炸事件揭露了一场深刻的“信任危机”。
- 硅谷科技精英的叙事
我们在为人类创造更美好的未来,过程中的阵痛是必要的。 - 美国公众接收到的信号
你们的“未来”里不包括我;你们口中的“阵痛”是要我付出一切; 而你们自己,则在混乱的内斗和虚伪的承诺中赚得盆满钵满。
附录:Sam Altman 博客声明全文(中文翻译)

这是我家人的照片。我爱他们胜过一切。
图像是有力量的,我希望如此。平时我们尽量保持私隐,但这次我选择公开这张照片,希望能让下一个人——不管他怎么看我——打消向我们家扔燃烧瓶的念头。
第一个人昨晚干了这件事,凌晨3点45分。幸运的是燃烧瓶弹开了,没有人受伤。
文字也有力量。
几天前有一篇关于我的煽动性文章(incendiary article——"incendiary"既指"煽动性的",又指"引火的",与燃烧瓶的火形成双关)。
昨天有人对我说,他们认为这篇文章出现的时机恰逢人们对 AI 极度焦虑,这让我处境更危险了。
我当时没当回事。
现在我半夜睡不着,满腔愤怒,开始意识到我低估了文字和叙事的力量。
现在也许是个好时机,让我来回应几件事。
第一、我相信什么。
为所有人谋求繁荣、赋能每一个人、推动科学技术进步,对我来说是道德义务。
AI 将成为有史以来扩展人类能力和潜力最强大的工具。
对这一工具的需求本质上是无限的,人们将用它做出不可思议的事情。
这个世界需要海量的 AI,我们必须想方设法让它实现。
不会一切顺利。
对 AI 的恐惧和焦虑是有道理的;我们正在经历也许是长期以来、甚至有史以来最大的社会变革。
我们必须把安全做好,这不仅仅是关于模型对齐(alignment,即让 AI 行为与人类意图一致)——我们迫切需要全社会共同应对新威胁的韧性。
这包括制定新的政策,帮助人们渡过艰难的经济转型期,最终走向一个更美好的未来。
AI 必须民主化;权力不能过于集中。
对未来的控制权属于所有人和他们的机构。
AI 需要赋能每一个个体,我们需要共同决定我们的未来和新规则。
我认为,少数几个 AI 实验室来做出关于我们未来形态的最关键决定,这是不对的。
适应性至关重要。
我们都在快速学习新事物;我们的某些信念会被证明是对的,某些会是错的,有时我们需要随着技术发展和社会演进迅速改变想法。
还没有人真正理解超级智能的影响,但这种影响将是巨大的。
第二,一些个人反思。
回顾我在 OpenAI 头十年的工作,我能指出很多让我骄傲的事,也能列出一堆错误。
我想到了我们与 Elon 即将到来的庭审,想起了我当时多么坚定地守住了底线,拒绝同意他对 OpenAI 的单方面控制权。
我为此感到骄傲,也为我们当时在那条窄路上艰难前行、让 OpenAI 得以存续、以及随之而来的所有成就感到骄傲。
我不为自己的回避冲突感到骄傲,那给我和 OpenAI 带来了巨大痛苦。
我不为在与前董事会的冲突中处置不当、给公司造成极大混乱感到骄傲。
在 OpenAI 这段疯狂的历程中我犯了很多其他错误:我是一个处于异常复杂局面中心的有缺陷的人,每年都在努力变得更好,始终为使命而工作。
我们一开始就知道 AI 的利害关系有多大,也知道我关心的人之间善意的分歧会被极大地放大。
但亲身经历这些痛苦的冲突、且经常不得不充当裁决者,又是另一回事——代价是沉重的。
我为伤害过的人感到抱歉,希望我能更快地吸取教训。
我也非常清楚,OpenAI 现在是一个重要平台,不再是那个拼劲十足的小创业公司,我们需要以更可预期的方式运作。
过去几年极其紧张、混乱、高压。
但最重要的是,我为我们正在兑现使命感到无比骄傲——当初开始时,这看起来几乎是不可能的。
我们逆着所有逆境,想出了如何构建极其强大的 AI,想出了如何筹集足够的资金来建设交付它所需的基础设施,想出了如何打造产品公司和商业模式,想出了如何在大规模上提供相当安全可靠的服务,以及更多。
很多公司说要改变世界;我们真的做到了。
第三、一些关于行业的思考。
过去几年我的个人感悟,以及对我们领域各公司之间为何有这么多莎士比亚式的戏剧性冲突的理解,归结为一句话:"一旦你看见了通用人工智能(AGI),就再也无法视而不见。
"它有一种真实的"权力之戒"(《魔戒》中的设定,象征绝对权力的腐蚀性诱惑)的意味,让人做出疯狂的事。
我不是说 AGI 本身就是那枚戒指,而是那种"成为控制 AGI 之人"的全盘执念。
我能想到的唯一解法,是致力于将技术广泛地分享给人们,让任何人都无法独占这枚戒指。
实现这一点的两条显而易见的路径是:个体赋能,以及确保民主体系保持掌控。
民主进程必须比公司更强大,这一点至关重要。
法律和规范将会改变,但我们必须在民主进程中运作,即使它会比我们希望的更混乱、更缓慢。
我们希望成为一个发声者和利益相关方,但不想拥有全部权力。
对我们行业的很多批评,源于对这项技术极高利害关系的真诚关切。
这是完全合理的,我们欢迎善意的批评和辩论。
我对反技术情绪感同身受,显然技术并不总是对每个人都有好处。
但总体而言,我相信技术进步能让未来变得难以置信地美好,为了你的家人,也为了我的家人。
在我们进行这场辩论的同时,我们应该降低言辞和战术的激烈程度,争取让更少的家里发生更少的爆炸——无论比喻意义上的,还是字面意义上的。
-END-
一个冷知识:24年奥特曼与男友结婚,现在有了一个孩子。
推荐阅读:
8小时从零构建Linux桌面 |最强开源模型 GLM-5.1
拆解 Hermes Agent:开源 Agent 里唯一的闭环学习系统
AI Code 企业落地问题:成本失控与无法持续记忆上下文及解决方案
490万浏览量的方案:用 LLM 构建持续更新积累的个人知识库
谷歌提示工程白皮书|Google Prompt Engineering White-paper
夜雨聆风