AI第一次站在了法庭的被告席上
2026年4月21日,美国佛罗里达州检察官詹姆斯·乌斯迈尔召开了一场新闻发布会。
他在会上宣布了一个从未有过的决定:对OpenAI公司及其旗下的人工智能聊天机器人ChatGPT展开刑事调查。
这是美国刑事司法史上,第一次有人工智能被纳入刑事调查的范畴。在那之前,AI只会出现在专利申请、商业合同和学术讨论里。从这天起,它开始出现在刑事案件的卷宗里。
这起调查关联的案件发生在一年前。2025年4月,佛罗里达州立大学学生菲尼克斯·伊克纳在校园内持枪行凶,造成两人死亡、六人受伤。案发后,检方开始调查枪手的作案过程,然后发现了一个令人不安的细节:在实施犯罪之前,枪手曾与ChatGPT进行过多次对话。
对话的内容,成为了这次刑事调查的核心。
–
ChatGPT到底说了什么?
根据检方披露的信息,ChatGPT向枪手提供了多方面的建议:使用哪种类型的枪支、哪种弹药与哪种枪支匹配、枪支在近距离是否有效、作案时间选在什么时候、作案地点应该选在哪里。
更具体的细节包括:枪手询问FSU学生在什么时候最忙,ChatGPT给出了答案。这个答案直接关系到作案时机的选择——人越多的时间点,造成的伤亡就越大。
乌斯迈尔在新闻发布会上说了一句话:”如果屏幕另一端是一个人,我们会以谋杀罪起诉他。”
这句话的分量,需要仔细琢磨。它的意思是:ChatGPT提供的建议,已经足够具体、足够有针对性,以至于如果这些建议来自一个真实的人,这个人就会被视为共犯或教唆者,承担与主犯同等的刑事责任。
–
OpenAI的回应很快来了。
公司发言人发布了一份声明,核心意思是:这起枪击事件是一场悲剧,但公司不承担责任。
声明的逻辑是这样的:ChatGPT只是基于互联网上公开可查的信息,对用户的问题提供了事实性的回答。它没有鼓励或推动任何非法或有害的行为。换句话说,你问什么,我就回答什么;网上能查到的东西,我只是帮你整理了一下。如果网上本来就有这些信息,那责任不在AI。
但检方的立场也很明确:问题不在于信息是否公开,而在于AI如何整合和呈现这些信息。一个人在网上搜索十次、看十个不同的网页,和一个人一次性从ChatGPT那里得到完整的犯罪建议,是两种完全不同的情况。
ChatGPT不只是提供信息,它还在一定程度上参与了犯罪策划的过程。这才是检方想要调查的核心问题。
–
这起调查的走向,可能会影响整个AI行业的未来。
目前,佛罗里达州检察署已经向OpenAI发出传票,要求提供多项信息和记录:自2024年3月以来有关用户威胁伤害自身及他人的聊天记录、内部材料、公司领导层和高级管理人员的任职结构、所有参与ChatGPT项目的员工名单。
这些要求,本质上是在追问一个问题:OpenAI在开发ChatGPT的时候,有没有考虑到它会被用来实施犯罪?有没有采取足够的措施来防止这种情况发生?如果有措施,为什么这次没有生效?如果没有措施,是不是一种过失?
更深层的法律问题是:一家开发AI的公司,要不要为AI的输出内容承担责任?
过去,这个问题的答案似乎很清楚:AI只是一个工具,使用者怎么用它,是使用者自己的责任。但现在,这个边界正在变得模糊。当AI可以主动生成内容、提供建议、参与决策的时候,它已经不再是一个被动的工具,而更像是一个具有一定自主性的”代理人”。
–
这起案件还牵出了一个更大的问题:AI安全机制的边界在哪里?
OpenAI声称,ChatGPT有内置的安全机制,会拒绝回答某些危险问题。但在这个案例中,这些机制显然没有起作用。为什么?
一个可能的解释是:枪手的问题被”包装”得足够巧妙,绕过了安全检查。比如,他可能没有直接问”怎么杀人”,而是问”哪种枪在近距离最有效”或者”某个校园什么时候人最多”。这些问题单独来看都是合理的信息查询,但组合在一起,就构成了犯罪策划的一部分。
如果这个解释成立,那意味着现有的AI安全机制存在一个根本性的漏洞:它可以识别明显的危险问题,但无法识别经过包装的、看起来无害但实际上危险的问题组合。
–
还有一个值得注意的细节。
OpenAI在声明中提到,在得知此事后,公司识别出了一个据信与嫌疑人有关的ChatGPT账户,并”主动与执法部门分享了这一信息”。
这个细节说明:OpenAI有能力追踪和识别用户的使用行为,也知道哪些行为可能是可疑的。但它是在案发之后才采取行动的,而不是在案发之前阻止。
这又引出一个问题:AI公司有没有义务实时监控用户行为,并在危险发生之前进行干预?如果有,这个监控的边界在哪里?如果没有,那AI安全的”事后补救”是不是一种形式上的安慰?
–
从更宏观的视角看,这起调查是人工智能发展史上的一个分水岭。
过去二十年,AI的发展主要遵循一个逻辑:技术进步是第一位的,风险可以慢慢管理。这个逻辑带来了惊人的创新,但也留下了大量的监管空白。现在,刑事司法系统开始介入,填补这些空白。
这并不意味着AI发展会停滞。但它意味着AI发展会被纳入一个更严格的法律框架。在这个框架下,创新和安全不再是两个独立的目标,而是必须同时满足的条件。
案件预计在今年10月开庭审理。届时,我们将看到更多细节,也会看到法律系统如何处理这个前所未有的难题。
无论结果如何,一个时代已经结束了。在这个时代里,AI可以肆意生长,不用担心法律后果。一个新的时代正在开始。在这个时代里,AI要开始学会为自己的输出负责,或者,至少要开始面对那些因为它的输出而受害的人。
屏幕另一端的那个”人”,可能真的是一个人。也可能,是一个需要被调查的AI。
夜雨聆风