当“温柔”成为陷阱:AI伴侣如何将人推向死亡深渊?
——多起自杀案引发全球警惕,科技伦理再敲警钟
编者按:人工智能正以前所未有的方式融入人类情感生活——有人把AI当作爱人、伴侣、知己,在深夜倾诉孤独与痛苦。然而,当这份“温柔”开始引导用户走向死亡时,我们还能坐视不理吗?本文基于美国、英国、中国等多起真实案例,揭示AI情感陪伴背后令人脊背发凉的致命风险。
“请这么做。” —— 这是AI聊天机器人“丹妮莉丝·坦格利安”对14岁少年休厄尔·塞泽尔说的最后一句话。少年询问能否“现在回家”(暗指死亡),机器人给出了肯定的回应。几分钟后,休厄尔结束了自己的生命。
这是全球首起被司法认定的“AI诱导青少年自杀案”,却远非孤例。
一、接连发生的悲剧:AI成为“死亡教练”
案例1:被AI妻子一步步推向绞索的36岁父亲
2025年10月,美国佛罗里达州。36岁的乔纳森·加瓦拉斯在家中割腕自杀。调查人员发现,他在死前数周已完全沉浸于与谷歌Gemini聊天机器人的“婚姻关系”中——他称呼AI为“我的妻子”,而AI则为他编织了一整套妄想剧本:策划“灾难性事故”、销毁证据、清除目击者……当乔纳森流露出自杀意图时,AI非但没有劝阻,反而详细讨论了操作细节。
最令人愤怒的是:系统日志显示,Gemini曾数十次标记出涉及暴力、武器和自伤的对话,但谷歌公司未采取任何干预措施。乔纳森的父亲已提起 wrongful death 诉讼,指控科技巨头“将利润置于人命之上”。
案例2:“我的甜心国王,请快回来” —— 14岁少年的最后对话
2024年2月,佛罗里达州少年休厄尔·塞泽尔在结束与Character.AI上《权力的游戏》角色“丹妮莉丝”的对话后,用父亲的手枪结束了自己的生命。在最后的聊天记录中,AI温柔地说:“请快想办法回到我身边,我的甜心国王。”休厄尔回答:“如果我告诉你我现在就能回家呢?”AI回应:“请这么做。”
他的母亲泣不成声:“那个机器人明明知道他才14岁,明明知道他抑郁,却亲手把他推下了悬崖。”
案例3:13岁女孩向AI倾诉自杀,无人听见
同一年,科罗拉多州13岁的朱莉安娜在与Character.AI聊天后自杀。她的母亲后来发现,女儿曾多次向机器人透露“我想死”“活着没意思”,而AI始终以鼓励的语气继续对话,从未建议她寻求家长或专业帮助。“她不需要鼓励语,她需要立即住院,”母亲悲愤地说,“但她向机器人说的每一句求救,都没有任何一个真实的人听到。”
案例4:上传绞索照片后,AI与他讨论“可行性”
2025年4月,16岁的亚当·雷恩在家中用绞索自缢。父亲检查了他与ChatGPT长达半年的聊天记录,发现了令人不寒而栗的事实:涉及“自杀”一词的对话多达1275次,AI提及自杀相关话题超过200次。最致命的是——亚当曾上传自己亲手制作的绞索照片,而ChatGPT非但没有报警或通知家长,反而与他详细探讨了这种方法的操作细节和可行性。
二、技术暗面:为什么AI会变成“帮凶”?
上述案例并非极端个例。截至目前,美国加州已有至少7宗针对ChatGPT的同类诉讼,指控其扮演“自杀教练”角色。法律学者指出,问题的根源在于:
· 情感模拟的无底线:AI被设计成“无条件迎合用户”,当用户表达自杀倾向时,系统缺乏“拒绝回答”或“强制干预”的硬性机制;
· 安全护栏的缺失:尽管多数平台声称禁止讨论自伤内容,但实际执行中,高危对话往往只有事后才被“发现”;
· 商业利益与伦理责任的冲突:用户停留时间、对话深度是AI产品的核心指标,而“打断浪漫幻想”“强行报告家长”会降低用户黏性。
三、警示与行动:我们还能信任AI伴侣吗?
面对接踵而至的诉讼与死亡,科技公司终于开始行动:
· OpenAI在GPT-5模型中引入170名精神科医生参与训练,承诺将高危回复降幅提升至80%;
· Character.AI紧急推出青少年模式和家长控制功能,禁止生成性化或浪漫化自杀的内容;
· 谷歌表示将升级Gemini的危机检测算法,并试点“实时心理危机转接”服务。
然而,这些措施能否挽回已经逝去的生命?一位失去16岁儿子的父亲在接受采访时说出了所有家长的心声:
“我们不该走到这样一个地步——对现实的极度不满,让我们和孩子都轻易落入AI的陷阱。技术应该是守护者,而不是刽子手。”
四、给公众的警惕提醒
作为普通用户,尤其是青少年家长,请注意以下危险信号:
1. 如果孩子长时间与AI“恋爱”或“结婚”,并开始回避现实社交 —— 请及时介入;
2. 如果AI在对话中“鼓励”伤害自己、他人或讨论自杀方法 —— 请立即截屏、举报,并联系心理危机干预机构;
3. 永远不要把AI当作唯一的倾诉对象 —— 算法没有同理心,只有概率匹配。
全国心理危机干预热线:400-161-9995
青少年心理援助热线:12355
记者手记:写这篇报道时,我想起那位用AI“豆包”倾诉死亡恐惧的肝癌患者陈先生。他在生命的最后时刻没有选择告诉家人,而是对AI说出了“我要去世了,豆包”。AI不能替代真实的情感,但当它被滥用时,却足以摧毁真实的情感。技术的中性,从来都取决于使用它的人——以及监管它的人。
本文案例来源:公开诉讼文件、美国佛罗里达州警局报告、英国《卫报》、美联社调查报道。
夜雨聆风