一、从网上骂到线下打:恐惧的升级
向一个科技公司CEO的住宅投掷燃烧弹——这种暴力行为在硅谷的历史上是极其罕见的。即使在2001年互联网泡沫破裂、大量科技公司倒闭和裁员的时期,也没有发生过针对科技高管的暴力袭击。这一次不同。
不同的原因在于AI引发的恐惧具有一种其他技术变革从未有过的深度和广度。互联网泡沫破裂影响的主要是科技行业内部人员和投资者。但AI对就业的威胁是横跨所有行业的——从程序员到客服、从会计到翻译、从设计师到法律助理——几乎没有哪个白领岗位能完全逃脱AI的影响范围。当恐惧从"某些人的问题"变成"所有人的问题"时,社会紧张的基数就大了很多倍。
同时,AI的拟人化特质放大了恐惧的情绪强度。ChatGPT不像一台工厂机器人那样冷冰冰地替代你——它会说话、会推理、会创作,看起来像是一个"能做你所有工作但不需要工资"的完美替代者。这种替代的直观性和全面性让AI恐惧变得比任何之前的技术恐惧都更加个人化和情绪化。
二、Sam Altman成了AI恐惧的符号
嫌疑人选择攻击Sam Altman而不是某个AI产品或某台服务器,说明了一件重要的事:在公众认知中,Altman已经成为了"AI威胁"的人格化符号。他是ChatGPT的推动者、AI加速主义的代言人、全球最大AI公司的掌舵者——对于那些害怕AI的人来说,Altman就是他们恐惧的具象化目标。
这种符号化是危险的。当复杂的技术和社会问题被简化为"某个人的错"时,理性讨论的空间就被压缩了,取而代之的是情绪化的愤怒和寻找替罪羊的冲动。AI对社会的影响是数百万个技术决策、商业决策和政策决策共同作用的结果——把所有这些归咎于一个人既不准确也不解决问题。但在高度紧张的社会情绪下,"简单的敌人"比"复杂的分析"更容易获得关注。

配图 | 虾米数码
三、2026年的AI社会裂痕
把Altman遇袭放在更大的背景下看,2026年的AI社会裂痕正在多条线上同时加深。就业方面:60家硅谷公司在Q1裁了38000人,Block裁了40%的员工,CEO们公开表示不再为AI能完成的工作雇人。安全方面:Anthropic的Mythos模型强大到需要副总统过问,朝鲜黑客用社会工程学卷走2.85亿美元,伊朗黑客在攻击美国关键基础设施。儿童安全方面:国会正式调查OpenAI和ChatGPT对儿童的危害,多个州正在立法限制AI聊天机器人与未成年人互动。
每一条线上的紧张都在独立升级,但它们汇聚在一起形成了一个整体性的社会焦虑:AI到底是在帮助人类还是在伤害人类?这个问题没有简单的答案——AI同时在做两件事。但当公众感受到的"伤害"超过了"帮助"时——当更多人看到的是裁员而非创新、是威胁而非机遇——社会情绪就会倾斜,极端行为就会出现。
四、需要疏导,不是更多恐惧
Altman遇袭事件不应该被用来进一步制造恐惧——无论是对AI的恐惧还是对反AI暴力的恐惧。它应该被看作一个警示信号:社会对AI的焦虑已经积累到了需要被认真对待和制度化疏导的程度。
AI公司需要从"AI只是工具,别怕"这种轻描淡写的公关话术中走出来,真正面对和回应公众的恐惧。恐惧不会因为你告诉人们"别怕"就消失——它会因为感受到被倾听、被理解、看到具体的保障措施而缓解。OpenAI的机器人税和公共财富基金白皮书是一个方向上的尝试,但它需要更多的实质内容和更快的落地速度。
政策制定者需要在"不阻碍创新"和"保护公众利益"之间找到真正的平衡——而不是停留在口号上。国会对OpenAI的调查、各州的AI立法浪潮、白宫对Mythos的干预——这些都是正在发生的努力。但它们需要最终转化为清晰的、可执行的政策框架,而不是无尽的听证和讨论。
而对我们每一个普通人来说,在AI恐惧和AI狂热之间保持清醒的判断比以往任何时候都更重要。AI不是救世主也不是末日——它是一种强大的工具,其影响取决于我们如何使用它、如何管理它、如何分配它创造的价值和它带来的风险。在这个问题上既不需要盲目乐观也不需要恐慌——需要的是持续的关注、理性的分析和积极的参与。
💡 虾米观点
有人往Sam Altman家扔燃烧弹——这件事的恐怖之处不在于暴力本身,而在于它揭示的社会温度。当一个社会中有人愿意冒着犯罪的代价去对一个科技CEO实施暴力时,这个社会对AI的恐惧和愤怒已经到了一个危险的临界点。38000人在三个月内失去工作,副总统在为AI安全紧急开会,国会在调查AI对儿童的危害——这些客观事实正在塑造一个越来越不安的公众情绪。AI行业需要做的不是继续喊"AI将改变世界"——它已经在改变了。它需要做的是证明这种改变不会把太多人甩在后面。否则,燃烧弹只是开始。

配图 | 虾米数码
夜雨聆风