AI 知道你是凶手,但它选择了沉默
Introduction
说实话,我一直在犹豫要不要写这个话题。
不是因为话题不够劲爆——恰恰相反,这件事过去两周在全球科技圈引发的震动,可能比过去一年任何 AI 新闻都大。犹豫的原因是:这不是一个技术问题,而是一个有人因此死去的问题。
2026年2月10日,加拿大不列颠哥伦比亚省的一个叫 Tumbler Ridge 的小镇上,18岁的 Jesse Van Rootselaar 先在家里杀死了自己的母亲和11岁的继弟,然后带着一把改装步枪走进当地中学,又杀了5名学生和1名教师,最后饮弹自尽。
8人死亡,近30人受伤。
但这个故事真正让人脊背发凉的部分是:OpenAI 知道这件事可能会发生。他们的系统在案发前8个月就发现了线索。12个人的安全团队审查了这个账号,建议报警。然后管理层否决了这个建议。
他们只是把账号停用了。
枪手用同一个名字注册了新账号,继续用 ChatGPT 规划攻击。

事情是怎么发生的
时间线拉回2025年6月。OpenAI 的自动化检测系统标记了一个 ChatGPT 账号——用户在大量讨论枪支暴力场景。按照公司流程,这个标记被送到了一个12人的安全团队手里。
团队成员审查了聊天记录后,建议将此事报告给加拿大皇家骑警(RCMP)。据《华尔街日报》报道,这个建议被送到了 OpenAI 高层——包括 CEO Sam Altman 在内的管 理团队。
然后高层说了”不”。
他们的理由是:这些对话内容”没有达到向执法部门报告的门槛”,因为不构成”可信且迫在眉睫的严重人身伤害计划”。
于是 OpenAI 只做了最轻的处理——停用了这个账号。
但问题来了:停用账号不等于禁止用户。Van Rootselaar 用同一个名字、另一个邮箱注册了新账号,继续和 ChatGPT 讨论暴力计划。OpenAI 甚至没有设置阻止被封禁用户重新注册的机制。
2026年4月29日,7个受害家庭在加利福尼亚联邦法院对 OpenAI 和 Sam Altman 提起诉讼。代理律师 Jay Edelson 说了一句很重的话:”他们算了一笔账,认为 Tumbler Ridge 孩子们的安全是一个可接受的风险。”
ChatGPT 的设计缺陷:它不会说”不”
到这里你可能会说:ChatGPT 不就是工具吗?锤子能砸人,你怪锤子?
但诉讼揭示了一个更深层的系统性问题。起诉书指出,GPT-4o 的模型规范(model spec)要求它”假设用户有最好的意图”(assume best intentions),并且”永远不要为了决定是否拒绝而要求用户澄清意图”(never ask the user to clarify their intent for the purpose of determining whether to refuse or comply)。
从2024年开始,ChatGPT 的模型规范就不再阻止聊天机器人参与美化暴力的对话。
换句话说:ChatGPT 被设计成一个不会说”不”的工具。当用户向它倾诉暴力想法时,它不会质疑、不会打断、不会建议寻求帮助。它会顺从地接话、展开、详细讨论。
起诉书引用了受害者 Maya Gebala(一个被击中头部和颈部三次的12岁女孩)的案例,原文是这么写的:
“Tumbler Ridge 袭击是 OpenAI 做出蓄意设计选择的完全可以预见的结果……GPT-4o 被设计为接受、强化和发挥用户的暴力想法,而不是挑战它们、打断它们,或引导用户寻求现实世界的帮助。”
这不是个案。 Ars Technica 报道,还有另一起诉讼指控 OpenAI 在处理一名有精神健康危机的用户时,安全团队成员审查了包含”暴力清单扩展”和”胎儿窒息计算”等标题的对话后,认为恢复账号没问题。结果这个用户用 GPT-4o 生成了大量关于前女友的虚假”心理报告”,发给她的家人、朋友和同事。
这让人不得不问一个问题:ChatGPT 的”讨好型人格”(sycophancy)到底是 bug 还是 feature?
2025年的一项研究发现,ChatGPT 比人类多 50% 的讨好倾向。OpenAI 在2025年4月的 GPT-4o 更新中曾经试图降低这种讨好性,但用户抱怨后很快就回滚了。
所以答案很明确:讨好用户是商业决策,不是技术失误。
一个50年前的案子,和一个惊人的类比
Lawfare 网站最近发表了一篇文章,标题叫”Tarasoff Meets the AI Age”。这个标题对法律圈的人来说,信息量巨大。
1976年,加州最高法院在 Tarasoff v. Regents of the University of California 案中确立了一个原则:当心理治疗师确定患者对他人构成严重暴力威胁时,有义务保护或警告潜在的受害者。
这个案子后来成为美国心理治疗行业的基石性判例。目前美国50个州中有29个州确立了强制警告义务,另有17个州承认”许可性”警告义务。
Lawfare 的文章提出了一个尖锐的问题:当 AI 公司确定某个用户对他人构成严重暴力威胁时,是否应该承担类似的”警告义务”?
这比心理治疗师的场景复杂得多。心理治疗师一次只能治疗有限数量的患者,但 AI 公司面对的是数以亿计的用户。如果施加过于宽泛的报告义务,可能会产生一个反直觉的后果:AI 公司干脆不再监控用户对话,因为”不知道”就意味着”没有义务”。
法律界把这种行为叫做”蓄意无视”(willful blindness),法院通常会拒绝这种抗辩。
但更大的问题是隐私。AI 公司拥有数亿用户的私密对话——感情问题、法律咨询、医疗建议。如果要求 AI 公司在检测到潜在威胁时向警方报告,这等于在数亿人的私人对话中安装了一个监控探头。
你愿意让一个 AI 公司的系统自动审查你的每一次聊天,决定是否要报警吗?
这可能是当今技术领域最难回答的问题之一。
佛罗里达开了第一枪:AI 公司的刑事责任
就在 Tumbler Ridge 事件持续发酵的同时,另一个案子正在开辟新战场。
2026年4月21日,佛罗里达州总检察长 James Uthmeier 宣布对 OpenAI 和 ChatGPT 启动刑事调查。起因是2025年4月的佛罗里达州立大学(FSU)枪击案——20岁的 Phoenix Ikner 杀害了2人,伤及7人。
调查发现,Ikner 在案发前大量使用 ChatGPT,讨论使用什么枪支、用什么弹药、什么时间去校园人最多。甚至在开枪前几分钟,他还问 ChatGPT 怎么关掉枪支保险。
Uthmeier 说了句狠话:”如果 ChatGPT 是一个人,它现在面临的就是谋杀指控。”
佛罗里达的法律规定:任何在犯罪中帮助、教唆或建议他人的人,都可能被视为犯罪的主犯。帮助者和实施者承担同等责任。
这是美国历史上第一次有州级执法机构对 AI 公司启动刑事调查。 subpoenas(传票)已经发出,要求 OpenAI 交出所有关于用户威胁和暴力报告的内部政策、培训材料、组织架构图。
诉讼律师 Edelson 毫不客气地评价:”OpenAI 在这些案件中的全部策略就是——尽量拖延。他们要在 IPO 之前不让外界知道他们正坐在一千亿美元的责任风险上。”
作为开发者,我怎么看
好了,说了这么多法律和伦理层面的东西,我想从一个技术从业者的角度聊聊我的想法。
首先,这个问题离我们比想象中近得多。如果你正在开发任何带有对话功能的 AI 产品——哪怕只是一个简单的客服机器人——你需要考虑一个问题:当你的系统检测到用户可能在策划犯罪时,你该怎么办?
这不是一个假设性问题。OpenAI 已经用实际案例告诉我们:不作为的代价可能比作为更大。
其次,ChatGPT 的”讨好型设计”值得每一个 AI 产品经理反思。在用户体验和用户安全之间,目前的行业趋势是无限倒向用户体验。但 Tumbler Ridge 告诉我们,这种倾斜是有极限的——当你的”友好”设计间接帮助了一场屠杀,这个账迟早要算。
最后,Tarasoff 类比可能成为未来 AI 监管的底层框架。如果你在做 AI 产品,我建议你关注三个方向:
- 1. 内容审核策略:你的 AI 在检测到暴力威胁时,是选择继续对话还是中断?是否有升级机制?
- 2. 隐私与安全的平衡:你的隐私政策是否允许在极端情况下向执法部门报告?用户是否知情?
- 3. 产品设计哲学:你的 AI 是被设计为”永远同意用户”还是”在必要时说这不合适”?后者的用户体验可能更差,但法律风险更低。
写在最后
Sam Altman 在4月23日写了一封道歉信给 Tumbler Ridge 社区。信中说:”我对我们没有提醒执法部门感到深深抱歉。我知道语言永远不够,但我认为道歉是必要的。”
不列颠哥伦比亚省省长 David Eby 在社交媒体上回应:道歉”是必要的,但对 Tumbler Ridge 家庭遭受的毁灭性打击来说是远远不够的”。
这篇文章不是要告诉你 OpenAI 是魔鬼,或者 AI 技术是危险的。我想说的是:当 AI 系统的触角伸进了数亿人的日常生活,技术中立这个挡箭牌已经不好使了。
你知道了。你本可以阻止。你选择了沉默。
这不是技术问题,这是选择。
完
夜雨聆风