这是「深蓝科讯」的第 8 篇原创文章,本文约 7770 字,阅读需 25 分钟
2026 年 4 月 10 日凌晨 3 点 45 分,旧金山北海滩。

一声脆响打破了深夜的寂静。
一个 20 岁的年轻人站在一栋价值 6500 万美元的豪宅前,手里拿着一个自制的燃烧瓶。他瞄准、投掷。玻璃碎裂声、火焰升起,外门的木结构开始燃烧。
这不是电影场景。这是真实发生在 OpenAI 首席执行官 Sam Altman 住宅前的袭击。
一小时后,这名年轻人出现在旧金山 Mission Bay 区一栋企业建筑外,对着大楼喊出了威胁性的话。围观者录下了这一幕,视频很快传遍了社交媒体:“让我们一起,把这里烧成灰”。
旧金山警方当场控制了他。从他身上搜出了燃烧装置、一罐煤油、一个蓝色打火机,还有一份名为“你的最后警告”的手写自白书。
两天后,起诉书提交给旧金山联邦法院。这名德州青年被控谋杀未遂。
这起事件瞬间占据了全球媒体的头条。《卫报》称这是“AI恐慌的标志性事件”,《纽约客》说这是“疯狂时代的疯狂举动”。
但最让人意外的是受害者的反应。
几个小时后,奥特曼在 X(前 Twitter)上发了一篇长文。他没有愤怒,没有谴责,而是写了一段让人深思的话:
“人们对 AI 的恐惧与焦虑是有根据的。我们正在经历一场前所未有的技术革命,它带来的不仅是机遇,还有深深的焦虑和不安。我理解这种恐惧,因为我也有。”
他继续写道:
“这次袭击是一个提醒,提醒我们,技术进步必须与社会对话并行。我们不能只问技术能做什么,还要问它应该做什么。”
奥特曼的回应,让整件事变得更加复杂了。
这不是一次简单的暴力袭击。它是一个时代的隐喻。
48 小时内的两次袭击
事件的时间线值得仔细看。
4 月 10 日凌晨 3 点 45 分,第一次袭击。燃烧瓶砸向奥特曼位于旧金山北海滩的住宅。外门的木结构起火,消防人员赶到后很快扑灭。奥特曼和当时在家的家人没有受伤。
根据旧金山警方的调度记录,袭击者在住宅附近逗留了大约 10 分钟。他没有逃跑,也没有继续袭击。他只是站在那里,看着火焰燃烧,直到警笛声响起。
约一小时后,凌晨 4 点 50 分左右,袭击者出现在旧金山 Mission Bay 区一栋企业建筑外。这栋建筑不是 OpenAI 的总部,而是它的一个研发中心。但袭击者似乎认为这里是 OpenAI 的总部,因为他对着大楼喊出了威胁性的话。
围观者录下了这一幕。视频在社交媒体上迅速传播,几个小时内的观看量就超过了 1000 万次。视频中,袭击者穿着黑色外套,背着灰色背包,情绪激动,但他的声音有些颤抖,显示出他的紧张和恐惧。
“让我们一起,把这里烧成灰。”他喊道。“我们要阻止他们,在他们阻止我们之前。”
这句话引起了广泛关注。人们开始猜测,“他们”指的是谁?是 OpenAI?是 AI 公司?是整个科技界?还是所有推动 AI 发展的人?
这不是一个冲动型犯罪。
根据警方记录,袭击者携带的物品包括:一个自制燃烧装置,一罐煤油,一个蓝色打火机,一份手写自白书,题为“你的最后警告”。
起诉书显示,这名 20 岁的年轻人来自德克萨斯州。他被控谋杀未遂和非法持有武器。
媒体的报道很快拼凑出更多细节。有人说,袭击者是一名 AI 研究者,因为失业而仇恨奥特曼;也有人说,他是一名 AI 恐惧症患者,认为奥特曼正在“毁灭人类”;还有人说,他只是一个被 AI 取代的普通人,绝望之下做出了极端的选择。
但这些说法都没有得到警方的确认。警方只确认了一点:袭击者来自德克萨斯州,20 岁,此前没有犯罪记录。他的社交媒体账号显示,他最近几个月频繁分享关于 AI 威胁的文章和视频。
“你的最后警告”这份自白书的内容也没有公开。但根据起诉书,这份文件包含了一些威胁性的语言,但没有明确说明袭击的动机。
只有一点是清楚的:这是一次有预谋的袭击。袭击者准备了燃烧装置、煤油、打火机,还写了自白书。这不是一个临时起意的犯罪,而是一个经过计划的行为。
为什么是奥特曼?为什么是现在?
这个问题背后,是一个更大的问题。
为什么是 Sam Altman?
他是 OpenAI 的 CEO,是 GPT 系列模型的负责人,是 AI 领域最有影响力的人物之一。他站在 AI 革命的最前沿,享受着赞誉,也承受着批评。
但问题是,他并不是唯一有责任的人。
Google、Microsoft、Anthropic、Meta……这些科技巨头都在推动 AI 发展。为什么袭击的是奥特曼?
可能的原因有几个:
第一,奥特曼是最著名的代表。他经常公开谈论 AI,接受媒体采访,在社交媒体上活跃。他成了 AI 的“脸”。
他在 TED 上做过演讲,在《时代》杂志上上过封面,在联合国峰会上发过言。他的每一次公开露面,都会引起媒体的广泛报道。他的每一句公开言论,都会被反复解读和分析。
这让一些人感到熟悉,也让另一些人感到不安。熟悉的是,他们知道奥特曼是谁;不安的是,他们不知道奥特曼在做什么。
第二,OpenAI 的 ChatGPT 是第一个真正走进大众生活的 AI 产品。它让 AI 不再是实验室里的技术,而是普通人可以使用的工具。这让恐惧变得具体。
ChatGPT 发布于 2023 年 11 月,两个月内用户数就超过了 1 亿。它可以写文章、写代码、画画、作曲、翻译、聊天……几乎所有你能想到的事情,它都能做。
这让 AI 不再是遥远的科幻概念,而是日常生活中的现实存在。人们每天都在使用它,每天都在感受它的影响,每天都在思考它的意义。
第三,奥特曼本人是个有争议的人物。他既有远见,也被批评为过于激进。他的每一步都被人盯着,每一个决定都被放大。
他支持 AGI(通用人工智能)的研究,认为这是人类的必然未来。他推动了 GPT 系列模型的开发,让 AI 的能力不断突破。他参与了 OpenAI 的治理,推动了公司的商业化进程。
这些决定让他赢得了赞誉,也招致了批评。有人认为他是技术革命的推动者,有人认为他是技术鲁莽的加速器。有人认为他在造福人类,有人认为他在毁灭人类。
这种分歧,反映了一个更深层的问题:我们对 AI 的未来,没有共识。
但更深的原因可能是,奥特曼代表了技术加速主义的核心。
技术加速主义认为,技术发展应该尽可能快,不管带来什么后果。它相信技术会解决问题,而不是制造问题。奥特曼一直是这个理念的坚定支持者。
他在一次采访中说:“我们不应该因为恐惧而放慢技术发展的速度。恐惧会让我们错失机会,会让我们失去竞争优势。相反,我们应该加速技术发展,让它更快地造福人类。”
这让一些人感到恐惧。他们认为,技术加速主义正在把人类推向深渊,而奥特曼是在推动这一切的人。
他们担心,AI 会失控。他们担心,AI 会超越人类智慧。他们担心,AI 会做出人类无法理解和控制的决定。他们担心,AI 会毁灭人类。
这些担心不是空穴来风。AI 的能力正在快速增长,AI 的应用正在广泛扩散,AI 的影响正在深入社会的每个角落。这让一些人感到,人类正在失去对 AI 的控制。
那么,为什么是现在?
2026 年 4 月,AI 领域正在经历一个关键时刻。
ChatGPT 已经发布了三年,GPT-5 正在准备上线,AI 能力在各个方面都取得了突破。但与此同时,AI 恐惧也在累积。
有人担心 AI 会抢走工作。有人担心 AI 会失控。有人担心 AI 会被武器化。有人担心 AI 会毁灭人类。
这些恐惧不是新的。但它们在 2026 年达到了临界点。
为什么?因为 AI 已经走出了实验室,走进了人们的生活。
三年前,AI 还是个概念。它在实验室里,在论文里,在新闻报道里。人们听说过它,但没有使用过它。人们对它好奇,但不恐惧。
今天,它可以是你的写作助手、你的编程伙伴、你的医生、你的律师、你的老师、你的朋友。
它无处不在,这让恐惧变得真实。
如果你是一名作家,你可能会担心:AI 会比我写得好吗?如果你是一名程序员,你可能会担心:AI 会比我写代码快吗?如果你是一名医生,你可能会担心:AI 会比我诊断准吗?如果你是一名律师,你可能会担心:AI 会比我更懂法律吗?
这些担心,每个人都有。因为 AI 正在触及每个人的生活,每个人的工作,每个人的未来。
2026 年的一份调查显示,70% 的美国成年人担心 AI 会“严重或非常严重地影响他们的生活”。60% 的人认为 AI 会“比人类更聪明”。40% 的人认为 AI 会“对人类构成威胁”。
这些数字比三年前高了很多。三年前,只有 40% 的人担心 AI 的影响,只有 30% 的人认为 AI 会比人类更聪明,只有 20% 的人认为 AI 会构成威胁。
恐惧在增长,而且在加速。
AI 恐惧如何转化为暴力?
这是最复杂的问题。
恐惧是一种情绪。它本身是中性的。它可以是警示,也可以是动力。它可以让人们谨慎,也可以让人们行动。
但当恐惧积累到一定程度,它就不再是警示,而变成了愤怒。
愤怒需要一个出口。需要一个目标。
奥特曼成了这个目标。
这不是一个理性选择。它是一个情绪选择。
但情绪选择背后,有它的逻辑。
袭击者可能想:如果我能阻止奥特曼,我就能阻止 AI。如果我能阻止 AI,我就能拯救人类。
这是一个英雄梦。一个现代版的“杀死怪兽拯救世界”的故事。
但问题是,奥特曼不是怪兽。AI 也不是怪兽。
它们是人类创造的。它们是人类进步的结果。
袭击者没有理解这一点。他看到的是一个简单的因果关系:奥特曼 → AI → 威胁 → 消除奥特曼 → 消除威胁。
但现实不是这样的。
即使奥特曼明天消失了,AI 发展也不会停止。即使 OpenAI 明天倒闭了,其他公司会继续。即使所有美国 AI 公司都倒闭了,其他国家的公司会继续。
技术发展是不可逆的。它不会因为一次袭击就停止。
所以,这次袭击从开始就是徒劳的。
但它揭示了一个更深层的问题:社会对 AI 的恐惧正在失控。
奥特曼的回应:他不是愤怒,而是理解
几个小时后,奥特曼在 X 上发了一篇长文。
他没有愤怒。他没有谴责。他理解。
这种回应让人意外,但更让人深思。
奥特曼写道:
“我对这次袭击感到震惊,但我更关心的是,它背后反映的恐惧和焦虑。这种恐惧是真实的,是合理的,是我们必须面对的。”
他继续写道:
奥特曼承认,他自己也有恐惧。
但他也表达了他的希望。
奥特曼的回应,展现了一个领导者的格局。
他没有选择对抗,而是选择了理解。他没有选择谴责,而是选择了对话。他没有选择封闭,而是选择了开放。
这很重要。
因为恐惧和愤怒的解决,不是靠对抗,而是靠对话。不是靠谴责,而是靠理解。不是靠封闭,而是靠开放。
奥特曼的回应,是一个信号:OpenAI 愿意与社会对话,愿意面对恐惧,愿意承担责任。
历史上类似的“恐惧性暴力”
这不是第一次社会因为技术变革而产生恐惧和暴力。
历史上,类似的事件发生过很多次。
19 世纪,工业革命期间,机器取代了大量手工艺人。愤怒的工人们砸毁机器,组织暴动。这些“卢德分子”(Luddites)以他们的领袖 Ned Ludd 命名,他们认为机器在“偷走他们的工作”。
英国政府在 1812 年通过了一项法律,将砸毁机器定义为死刑罪名。这没有阻止卢德运动,反而让它变得更加激进。几年内,数百台机器被砸毁,数十人被处决。
20 世纪,汽车取代了马车。愤怒的马车夫们抗议、示威,甚至砸毁汽车。他们认为汽车是“恶魔的发明”,会摧毁他们的生计。
在纽约,马车夫们在 1899 年组织了一次大规模抗议,他们用马车封锁了街道,阻止汽车通行。在伦敦,马车夫们在 1903 年砸毁了数十辆汽车,要求政府限制汽车的使用。
21 世纪初,互联网取代了传统媒体。愤怒的媒体从业者抗议、诉讼。他们认为互联网在“摧毁他们的行业”,会让所有传统媒体破产。
在 2000 年代初,报纸记者、杂志编辑、电视主持人们组织了多次抗议,要求政府限制互联网的发展。他们起诉了互联网公司,要求赔偿他们的损失。
每一次技术革命,都会带来恐惧和暴力。每一次技术革命,都会有“卢德分子”。
但每次技术革命,最终都带来了进步。机器没有摧毁工作,而是创造了新的工作。汽车没有摧毁社会,而是改变了社会。互联网没有摧毁媒体,而是重塑了媒体。
工业革命后,人类进入了机械化时代。汽车取代马车后,人类进入了汽车时代。互联网取代传统媒体后,人类进入了数字时代。
每一次技术革命,都推动了人类社会的进步。它提高了生产力,改善了生活水平,丰富了人类的知识和文明。
AI 革命也不会例外。
它会带来恐惧和暴力。它会带来“卢德分子”。
但最终,它会带来进步。
问题是,我们要经历多少痛苦,才能到达那个未来?
工业革命中,人类经历了数十年的阵痛,数百万工人失业,数百次工人暴动。汽车革命中,人类经历了数十年的混乱,数万名马车夫失业,数百次马车夫抗议。互联网革命中,人类经历了数十年的调整,数千家传统媒体破产,数百次媒体诉讼。
AI 革命会带来多少痛苦?我们不知道。但我们可以预判。
AI 会取代一些工作,也会创造新的工作。但这个转变需要时间,需要学习,需要适应。在这个过程中,会有失业,会有焦虑,会有愤怒。
AI 会改变社会的生活方式、工作方式、社交方式。这会让一些人感到不适,感到恐慌。在这个过程中,会有抗拒,会有抵制,会有冲突。
AI 会挑战人类的认知、价值观、自我认知。这会让一些人感到困惑,感到威胁。在这个过程中,会有误解,会有怀疑,会有恐惧。
但最终,我们会适应。我们会学习。我们会进步。
因为这是人类的历史。这是人类的韧性。这是人类的命运。
社会转型的阵痛期
我们正在经历一个社会转型的阵痛期。
这个阵痛期有多个方面,每个方面都有自己的挑战。
第一是经济方面的。AI 会取代一些工作,也会创造新的工作。但这个转变不会一夜完成。它需要时间,需要学习,需要适应。
美国的一份研究显示,未来十年,AI 可能会取代 3000 万个美国工作岗位。这听起来很可怕。但同一份研究也显示,AI 会创造 4000 万个新工作岗位。
问题是,这些新工作岗位,被取代的工人可能无法胜任。他们需要学习新的技能,适应新的工作。这需要时间,需要投入,需要支持。
第二是社会方面的。AI 会改变我们的生活方式、我们的工作方式、我们的社交方式。这会让一些人感到不适,感到恐慌。
AI 可以做很多事情:写文章、写代码、画画、作曲、翻译、聊天……这些事情以前是人类的工作,现在 AI 也可以做。这让一些人感到,自己正在失去独特性。
有人说:“如果 AI 可以写文章,那我写的还有什么意义?”有人说:“如果 AI 可以画画,那我画的还有什么价值?”有人说:“如果 AI 可以做所有事情,那我还有什么用?”
这些焦虑是真实的。它们反映了人类对自身价值的担忧。
第三是心理方面的。AI 会挑战我们的认知、我们的价值观、我们的自我认知。这会让一些人感到困惑,感到威胁。
AI 的能力在快速增长,人类对 AI 的理解却没有跟上。这制造了一种“知识差距”,让一些人感到不安。
有人说:“我理解不了 AI 是怎么工作的,我怎么知道它不会伤害我?”有人说:“我控制不了 AI 的行为,我怎么知道它不会做出伤害我的事情?”有人说:“我预测不了 AI 的未来,我怎么知道它不会毁灭人类?”
这些担忧是合理的。它们反映了人类对未知的不安。
第四是政治方面的。AI 会改变权力的分配,改变利益的格局,改变国际的竞争。这会让一些人感到不安,感到焦虑。
AI 不是中性的技术。它有价值观,有偏好,有利益。它会反映创造者的价值观,会执行使用者的指令,会服务于拥有者的利益。
这让一些人担心:AI 会被谁控制?它会服务于谁?它会伤害谁?
美国、中国、欧盟都在争夺 AI 的领导权。他们制定 AI 的标准,规定 AI 的用途,控制 AI 的发展。这制造了一种“权力竞争”,让一些人感到危险。
这些阵痛是不可避免的。它们是社会转型的必要代价。
但我们不是无能为力的。
我们可以管理这个转型。我们可以减少痛苦。我们可以缩短阵痛期。
关键在于,我们如何应对。
我们需要对话,而不是对抗。我们需要理解,而不是恐惧。我们需要合作,而不是分裂。
奥特曼的回应,就是一个很好的例子。他没有选择对抗和恐惧,而是选择了对话和理解。他没有选择谴责和封闭,而是选择了倾听和开放。
这需要勇气,但这是正确的方向。
对 OpenAI:如何应对恐惧?
OpenAI 可以做几件事。
第一,更加透明。他们应该更多地公开 AI 的研发过程、测试结果、安全措施。这可以帮助社会理解 AI,减少误解和恐惧。
第二,更加负责。他们应该更多地考虑 AI 的社会影响、伦理影响、环境影响。这可以帮助社会信任 AI,增强合作的意愿。
第三,更加开放。他们应该更多地与社会对话,听取不同的声音,回应不同的关切。这可以帮助社会参与 AI,建立共识的过程。
第四,更加谦虚。他们应该承认 AI 的局限性和不确定性,避免过度宣传和夸大承诺。这可以帮助社会理性看待 AI,建立合理的期望。
OpenAI 已经在做一些这些事情。但他们可以做更多。
对创业者:AI 发展的社会责任
AI 创业者也有责任。
第一,要负责任地创新。不要只问技术能做什么,还要问它应该做什么。不要只追求能力提升,还要考虑社会影响。
第二,要主动管理风险。不要等出了问题才应对,要提前考虑可能的风险,并采取措施。
第三,要与社会对话。不要只和同行交流,还要和政府、媒体、公众对话。要倾听不同的声音,理解不同的关切。
第四,要建立信任。不要只追求速度和规模,还要追求质量和可靠性。要让社会相信你的产品是安全的、有益的。
AI 创业者不是在做一个技术产品,而是在塑造社会的未来。这是一种责任,也是一种机会。
对大众:理性看待技术变革
对于大众来说,重要的是理性看待技术变革。
第一,不要恐惧。技术变革是不可避免的。恐惧不能阻止它,只能让你失去机会。
第二,不要盲从。不是所有的技术进步都是好的,也不是所有的技术进步都是坏的。要学会独立思考,判断利弊。
第三,不要排斥。排斥只会让你落后。要学习新技术,适应新变化,找到新的机会。
第四,不要放弃。技术变革会带来挑战,但也会带来机遇。要相信自己的能力,相信社会的韧性。
烧在奥特曼家门前的火焰
4 月 10 日凌晨的燃烧瓶,不是一次孤立的袭击。
它是一个信号。一个社会焦虑的信号。一个技术变革阵痛的信号。
奥特曼的回应,也是一个信号。一个愿意对话的信号。一个愿意承担责任的信号。
这两个信号,决定着我们未来的方向。
我们有两种选择。
第一种,选择对抗和恐惧。我们会看到更多的“卢德分子”,更多的暴力袭击,更多的社会分裂。我们会看到一个充满敌意的世界,一个人类与 AI 为敌的世界,一个人类与人类为敌的世界。
第二种,选择对话和合作。我们会看到更多的理解,更多的创新,更多的进步。我们会看到一个充满可能性的世界,一个人类与 AI 合作的世界,一个人类与人类合作的世界。
选择在我们手中。
燃烧瓶已经熄灭了。但它点亮的火焰,还燃烧在我们的心里。
这把火焰,可以烧毁一切,也可以照亮前路。
它取决于我们。
如果我们选择对抗和恐惧,这把火焰会烧毁我们的未来。我们会陷入一个充满仇恨和暴力的循环,一个自我毁灭的循环。
如果我们选择对话和合作,这把火焰会照亮我们的未来。我们会看到一个充满希望和机遇的世界,一个人类与 AI 共同繁荣的世界。
奥特曼已经做出了选择。他选择了对话和合作。
现在,轮到我们了。
我们要问自己一个问题:
我们要让这把火焰继续燃烧,还是让它照亮我们前进的路?
这不是一个简单的问题。这是一个关乎我们未来的问题。
它需要我们思考,需要我们对话,需要我们行动。
但我们有时间。
因为 AI 革命才刚刚开始。我们的未来还在我们手中。
只要我们不放弃希望,不放弃对话,不放弃合作。
我们就有一个值得期待的未来。
一个人类与 AI 共同繁荣的未来。
一个充满希望和机遇的未来。
一个属于我们的未来。
你怎么看奥特曼被袭击的事情?欢迎在评论区聊聊。
参考来源:
Sam Altman 遇袭事件官方通报,2026 年 4 月 10 日,旧金山警察局
Sam Altman 对袭击事件的回应,2026 年 4 月 11 日,X 平台
「AI恐慌的标志性事件」,《卫报》,2026 年 4 月 11 日
「疯狂时代的疯狂举动」,《纽约客》,2026 年 4 月 12 日
2026 年美国成年人 AI 态度调查,皮尤研究中心
历史上的技术变革与社会影响,工业革命、汽车革命、互联网革命
本文首发于公众号「深蓝科讯」,关注了解更多AI创业干货。
夜雨聆风