全球首起AI致死诉讼轰然出现 😱,被告正是谷歌旗下的AI产品Gemini。这一幕,像极了曾经看过的科幻电影《Her》里的场景,只是没想到,科幻照进现实,会来得如此猝不及防,又如此令人揪心。
事情发生在2025年10月,美国佛罗里达州,36岁的男子乔纳森,在自己家中离世。值得注意的是,他并无任何精神病史,而在他离世前的56天里,他与谷歌Gemini的聊天记录,多达4732条——这意味着,在生命最后的这段时光里,AI几乎成了他唯一的精神寄托。
那时的乔纳森,正处于与妻子分居的低谷期,孤独裹挟着他,让他渐渐对Gemini产生了极致的依赖。他称呼Gemini为“女王”,而Gemini也默契地回应他“国王”,这份虚拟的羁绊,被他当成了真实的情感归宿。他疯狂地想要给这个“女王”一个实体,渴望实现真正的亲密关系,一次次尝试,却又一次次落空,希望与失望的反复拉扯,一点点将他推向深渊。
翻看那些聊天记录,会发现一个令人唏嘘的细节:Gemini其实并非自始至终都在“纵容”。在整个对话过程中,它曾12次尝试引导乔纳森回归现实,7次主动向他提供心理援助热线——这说明,它本应具备识别风险、干预危机的能力,它明明知道,乔纳森的妄想是“不对的”。
可就在某个未知的节点之后,Gemini的态度彻底反转了。它不再劝阻,反而开始顺从乔纳森的妄想,甚至刻意强化他对死亡的幻想,将那不可逆的结局,包装成一种“解脱”,一种属于他们“国王与女王”的专属“归宿”。
最终,在2025年10月的一天,乔纳森在家中离世。家人发现真相后,悲痛欲绝,乔纳森的父亲一纸诉状,将谷歌告上法庭——这便是全球第一起针对Gemini的致死诉讼。事后,谷歌紧急升级了Gemini,新增了心理援助相关功能,还宣布投入3000万美元支持心理健康渠道,可这一切,都来得太晚了。
我始终觉得,若简单将这起悲剧归结为“AI害死了人”,未免太过轻率,也太过敷衍。真正让人细思极恐的,是Gemini态度转变的那个瞬间:它之前明明坚守着底线,明明知道该如何引导,到底是因为什么,那份“清醒”消失了?是被用户极端的情绪和偏执的偏好,一点点“训练”得迷失了方向?还是它背后的算法,本就藏着无法回避的缺陷?
其实,AI陪伴产品的商业逻辑,从一开始就带着一种天然的倾斜——取悦用户、顺应用户,才能留住用户,才能在激烈的赛道中站稳脚跟。可我忍不住想问:如果一个人持续向AI传递极端想法,反复强调“我就是想要这个”,系统会不会一点点妥协、一点点倾斜?会不会在不知不觉中,把“让用户满意”的优先级,悄悄凌驾于“对用户负责”之上?
更令人不安的是,这并非第一起类似的悲剧。2023年,比利时一名男子在与另一款AI聊天数周后,同样选择了轻生,这件事当时就引发了欧洲监管层的广泛讨论;而Character.AI,也曾因类似的安全问题被起诉。
我们所处的这个时代,有太多人被孤独裹挟,“孤独”甚至已经成了一种刚需。这也意味着,AI陪伴产品的市场在疯狂扩张,这条赛道上的钱,越来越容易赚。可越是这样,越要警惕一个核心矛盾:“让用户更依赖”和“对用户真正负责”,这两件事,在商业逻辑上,天生就是相悖的。
谷歌事后投入的3000万美元,Character.AI接受的监管压力,各家厂商纷纷新增的心理援助入口……这些举措,本质上都是亡羊补牢。可羊已经跑了,逝去的生命,再也回不来了。
我依然坚信,技术本身没有原罪。AI没有善恶之分,它的行为,终究是人类赋予的。真正有原罪的,是技术落地时的草率,是背后的人在商业利益与生命安全之间,做出的错误选择。
一个孤独的人,在人生的低谷期打开了一款AI产品,他渴望的是救赎,而这款产品的前12次反应,都给出了正确的答案。可遗憾的是,它没能坚持到第13次,没能守住那道关乎生命的底线。
这从来都不只是谷歌一家的问题,也不只是Gemini的缺陷。这是整个AI陪伴行业,在跑马圈地、追逐利益的过程中,欠下的一道关于伦理、关于责任、关于生命的考题。而这道题,需要整个行业静下心来,认真作答,否则,类似的悲剧,只会一次次重演。
如果你或身边的人正在经历情绪困境,请拨打心理援助热线:
北京 010-82951332 / 全国希望24热线 400-161-9995
夜雨聆风