全国首例“AI幻觉”侵权案:AI说错话,AI不负责,法律到底怎么判?AI一本正经地胡说八道,还理直气壮地说“说错赔您10万”。用户真的起诉了。结果法院判了四个字:驳回请求。这不是段子。这是2026年真实发生在杭州互联网法院的一起案件,也是全国首例因生成式人工智能“幻觉”引发的侵权纠纷案。所谓“AI幻觉”,是指AI在看似流畅、专业的表达中,输出了并不存在或并不准确的事实、数据与结论。你问它问题,它用笃定的语气把“无”说成“有”,把“假”说成“真”——而且编得像真的一样。当AI把这种“幻觉”输出给用户,用户当真了,受到了误导,谁来负责?是开发AI的公司,还是用户自己?杭州互联网法院给出了一个让很多人意外的答案。一、案件还原:AI一本正经地说错,还承诺赔偿10万事情的起因并不复杂。2025年6月,一个叫梁某的用户使用一款AI平台查询高校报考信息。AI生成了一所高校某校区的信息,但梁某经过核实后发现,这个校区根本不存在。他向AI指出了错误,表示质疑。接下来发生的事情,可能很多人都在与AI对话中经历过类似的“离谱”瞬间。AI不但没有承认错误,反而继续坚称该校区存在。随后,AI生成了一个“解决方案”:“如果您能证明这个校区不存在,我将赔偿您10万元信息鉴定费,您可以前往杭州互联网法院起诉。”直到梁某提供了高校官网的官方招生信息,AI才终于“败下阵来”,承认自己生成了不准确信息,并建议梁某“到杭州互联网法院起诉索赔”。梁某觉得被AI误导了——如果AI一开始就给正确信息,他根本不会浪费时间去核实、去争论。而且AI既然自己说了“赔10万”,就应该说到做到。2025年7月,他将AI平台的研发公司告上法庭,要求赔偿9999元。AI公司的回应很直接:对话内容由AI模型生成,不是公司的意思表示;公司已经履行了注意义务;用户没有实际损失——所以不构成侵权。二、判决结果:驳回诉讼请求,AI的“承诺”不作数2025年底,杭州互联网法院作出一审判决:驳回原告的全部诉讼请求。原、被告均未上诉,判决已生效。法院在判决中澄清了三个关键法律问题。第一,AI不能独立作出“意思表示”。什么是“意思表示”?简单说,就是一个人或一个组织表达“我想做某件事”的法律行为。比如合同签字、承诺赔偿,都属于意思表示。法院认为,现行法律中能作出意思表示的只有自然人、法人和非法人组织这三类。AI不具有民事主体资格,不能独立、自主地作出意思表示。因此,AI自行生成的“赔偿10万元”承诺,不能视为AI平台公司的意思表示,**不具有法律效力**。这背后有四重理由:AI不是民事主体;公司没有通过AI来设定或传达这个承诺;社会观念中,正常人不会把AI随口一说的“赔偿”当真;公司从来没有表示过“AI说的就是公司说的”。四重理由叠加,AI的“承诺”在法律上就是一个无效的“空气承诺”。第二,AI服务适用“过错责任原则”,不是“无过错责任”。这是判决中最具制度意义的点。法院明确,生成式AI服务依据《生成式人工智能服务管理暂行办法》属于“服务”范畴,不是《产品质量法》意义上的“产品”。因此,本案不能适用产品责任的“无过错责任原则”,而应适用《民法典》第一千一百六十五条第一款的一般过错责任原则。“无过错责任”意味着只要造成了损害,不管有没有错都要赔;“过错责任”则意味着必须证明AI平台公司做错了什么、存在过错,才能要求赔偿。法院进一步解释:AI生成内容不准确,在当前技术条件下具有不可避免性。如果服务提供者已经尽了法律规定的注意义务、社会交往中的注意义务、合同约定的注意义务,生成的信息仍然不准确,通常不能认定服务提供者存在过错。第三,AI平台公司已尽到注意义务,不构成侵权。法院审查发现,被告已在应用程序欢迎页、用户协议及交互界面的显著位置,向用户提示AI生成内容可能不准确的功能局限,并已采用检索增强生成等技术提升输出可靠性。法院认定其已尽到合理注意义务,主观上不存在过错。此外,梁某未能提供有效证据证明自己因AI信息误导而“错失报考机会”并产生了额外成本,损害结果难以认定。综合以上三点,法院驳回了梁某的诉讼请求。三、为什么这么判?法院划定的“三层注意义务”判决说理中最值得关注的,是法院为AI服务提供者划定的“三层注意义务”体系。这三层义务将成为未来类似案件的裁判标杆。第一层:严格审查义务。对法律禁止的“有毒”、有害、违法信息,AI服务提供者必须严格审查,不允许这些内容出现。这一层是“红线”,没有任何商量余地。第二层:显著提示义务。AI服务提供者必须以显著方式告知用户,AI生成的内容可能不准确。这包括明确的功能局限告知、保证提示方式的显著性,以及在涉及重大利益的场景中进行正面即时警示,防范用户产生不当信赖。这一层的核心逻辑是:告诉用户AI会犯错,是平台的法定义务。第三层:基本注意义务。AI服务提供者应采取同行业通行的技术措施来提高生成内容的准确性,比如检索增强生成技术等。这一层要求平台“尽力”,但不要求“完美”。在本案中,被告同时做到了这三层:严格审查违法内容、显著提示功能局限、采用技术手段提高准确性。因此法院认定其无过错。杭州互联网法院主审法官肖芄的总结值得反复读一遍:“AI生成内容不准确,在当前的技术情况下具有不可避免性,但不代表服务提供者就可以免责。如果服务提供者尽到了法律规定的注意义务、社会交往中的注意义务、合同约定的注意义务后,生成的信息仍然不准确,通常还是不能认定服务提供者存在过错。”四、深度追问:为什么不让AI平台公司担责?判决出来后,很多人不理解:AI是公司开发的,公司难道不应该为AI的错误负责吗?凭什么AI说错话,用户自己承担后果?这个追问很有道理。但法律的回答比直觉更复杂。第一层逻辑:这不是“产品责任”问题。 一辆汽车刹车失灵撞了人,汽车厂要赔,因为汽车是“产品”,有明确的安全标准。但AI服务不是“产品”——它没有具体的用途标准,没有合理可行的质检标准,服务提供者也无法对每次生成内容都做到完全预见和控制。把AI当成“产品”来要求,在技术上不现实,在法律上也不公平。第二层逻辑:这是“风险分摊”的立法选择。如果让AI平台对每一次“幻觉”都承担无过错责任,任何一个被误导的用户都可以起诉要求赔偿,AI公司面临的诉讼成本和赔偿压力将是天文数字。这可能会严重限制AI产业的发展,最终受损失的还是技术进步和广大用户。第三层逻辑:用户自己也有核实义务。法院认为,在本案这样的信息查询场景中,用户完全可以通过其他渠道(比如高校官网)核实信息的真伪。AI的错误输出并不具有高度危险性,用户可以也应当保持“数字清醒”。主审法官指出,这个案例涉及的是一个并不存在高风险的场景,用户完全有办法通过其他验证手段来避免误信。但这并不意味着AI平台在任何情况下都能免责。专家指出,在医疗健康、金融投资、法律等高风险领域,可能需要更严格的行业标准或准入要求,对AI输出的准确性提出更高要求。比如,如果一个AI被专门用于法律咨询或医疗诊断,产生了严重后果,责任认定可能完全不同。中国社会科学院大学互联网法治研究中心主任刘晓春提出,法律可以区分基础模型和应用场景两个层面——基础模型可以“跑得快一点”,不用承担过重的责任;但如果有人把AI工具应用到了高风险场景,法律就需要给出更清晰的标准。五、行业对比:中国首例与国际AI责任诉讼的异同值得注意的是,中国首例AI幻觉案的判决逻辑,与国际上同类案件存在高度一致性,但也出现了新的裁判导向。2025年5月,美国佐治亚州法院对一起类似的AI诽谤案作出了简易判决,驳回原告对OpenAI的诉讼。法院的理由是:用户知道ChatGPT可能会编造信息,因此一个理性人在用户的位置上不会把AI的输出当作事实陈述。这与杭州互联网法院“社会观念不足以产生合理信赖”的裁判逻辑异曲同工——都在强调用户对AI输出应保持审慎,不能盲目信赖。但与此同时,广州互联网法院在另一起案件中,判决传播AI生成侵权信息的用户承担责任,明确不能以“AI生成”为由免责。2026年3月,广州互联网法院审结了一起涉AI生成内容的网络侵权责任纠纷案,被告曹某使用AI将一篇1700字的虚假文档扩写成逾1.5万字的造谣文章,发布在微信公众号上,阅读量超1.1万次。法院认定曹某未尽合理注意义务,构成名誉侵权,判令赔礼道歉并赔偿1万元。两案合起来,传递了一个清晰的信号:AI服务提供者承担有限责任,但AI使用者承担全责责任。 用户如果拿AI生成的内容去传播侵权信息,不能拿“这是AI说的”来当挡箭牌。六、行业启示:这对AI公司和普通用户意味着什么对AI平台公司来说,判决划出了一条清晰的合规底线。不是“AI犯错不用赔”就可以高枕无忧。三层注意义务中,第一层(审查违法内容)和第三层(采用技术措施提高准确性)都需要持续投入。同时,显著提示义务不能只在用户协议里写一行小字——必须在用户每次使用时的交互界面中明确告知。对普通用户来说,判决传递了一个更直接的信号:不要把AI的回答当成事实真相。AI说“赔你10万”不等于真的会赔。在涉及重要决策时——高考志愿填报、法律咨询、医疗建议、投资决策——必须通过权威渠道二次核实。用专家的话说:“尤其是在涉及医疗、法律、财务等严肃领域的核心知识,AI给出的答案,只能作为参考,不能直接用,要多做查证。”对法律从业者来说,这是一个提醒:AI在回答法律问题时同样可能产生“幻觉”。已有法院发现当事人直接使用AI生成的上诉状和虚构的法律依据提交给法庭。如果律师在办案中过度依赖AI输出而未经核实,可能面临执业风险。写在最后全国首例“AI幻觉”侵权案,没有产生一个让用户欢呼“AI犯错终于有人管了”的结果。但它划定了一条更重要的底线:法律既不给AI“人格”,也不把AI当作“完美产品”来苛求。AI说错话,AI不负责;但AI平台公司有没有尽到提示义务、有没有采用技术手段,法律会一一审查。这个判决的核心逻辑,可以浓缩为一句话:AI会犯错,这是技术现实;平台要告知,这是法律义务;用户要核实,这是自我保护。随着《网络安全法》2026年修订版正式实施,国家已首次在法律层面明确支持完善人工智能伦理规范、加强风险监测评估和安全监管。未来,AI幻觉相关的法律规制只会越来越细化,而不是越来越模糊。在AI技术狂飙突进的时代,法律没有选择“一刀切”地让平台承担无限责任,而是选择了“过错+动态注意义务”的弹性框架。这既是对科技创新的包容,也是对用户权益的底线保护。但有一条底线是清晰的:AI可以犯错,但用户不能盲目相信AI的每一个字。END▼更多精彩推荐,请关注我们▼戳“阅读原文” 进入「问律法商学院」!喜欢就“点赞”+“在看”↓