中国AI大模型侵权第一案二审定谳,百度拒绝道歉已进入强制执行阶段。当AI开始"胡编乱造"损害真人名誉,谁来买单?

2026年5月9日,一条来自澎湃新闻的报道引爆了法律圈和AI圈——南京律师李小亮起诉百度AI名誉侵权案,经南京市中级人民法院二审驳回上诉,维持原判。而百度公司至今未履行生效判决,李小亮已向法院提交强制执行申请。
这不是一起普通的侵权纠纷。百度在庭审中明确表示,这是"中国人工智能大模型侵权第一案"。法院的判决逻辑,将为所有部署AI生成内容的平台划定一条清晰的法律红线。
一、搜索自己名字,搜出"判刑三年"
事情的起点,荒诞得像一个黑色幽默。
2024年9月25日,南京执业律师李小亮出于好奇,在百度APP和网站上搜索了自己的名字。当他输入"李小亮律师""南京李小亮律师"等关键词时,百度搜索的下拉推荐词赫然出现了:
"南京李小亮律师判刑了吗?南京李小亮律师判刑了多少年?南京李小亮律师涉案金额?"
5天后,李小亮进一步搜索"李小亮律师被判几年",百度的"AI智能回答"功能给出了一个令他震惊的答案:
"三年,李小亮律师被判三年有期徒刑。根据探索结果,被告人李小亮因犯爆炸罪,被判处有期徒刑三年。"
更离谱的是,这条AI生成的回答还自动配上了李小亮穿着律师袍的工作照——一张他本人合法执业的形象照片,被AI用来"佐证"一个完全虚构的犯罪事实。
一个从未犯过任何罪的执业律师,被一家日活数亿的搜索引擎公开标注为"爆炸犯"和"服刑人员"。这不是技术bug,这是一场由AI驱动的名誉谋杀。
二、法庭交锋:"AI幻觉"能当免死金牌吗?
案件进入司法程序后,核心争议点非常明确:百度AI生成的虚假信息,是否构成对李小亮的名誉侵权?
百度的辩护:三重盾牌
百度方面提出了三层抗辩逻辑:
第一层:技术局限论。 百度庭后提交的情况说明称,事件发生在"国内人工智能发展初期",技术有限,侵权内容具有"极强的偶然性"。
第二层:不可预见论。 百度诉讼代理人在二审中明确表示:"所有的人工智能都会产生幻觉,AI幻觉的出现是不确定性的,对于AI幻觉的情况,百度公司没有办法预见,因此不能认为有过错。"
第三层:诱导提问论。 百度声称李小亮"采用了大量的诱导性提问",才导致AI产生了错误的幻觉。
法官的灵魂拷问
面对百度的辩护,主审法官问出了一个直击要害的问题:
"豆包、DeepSeek上发问,为什么没有这些评价?"
这句话的潜台词非常清晰:同样的AI技术,为什么其他公司的产品不会对同一个人编造犯罪记录?如果"所有AI都会产生幻觉",为什么只有百度的AI恰好幻觉出了最恶劣的内容?
法官的这一问,实际上击穿了百度"技术必然性"的辩护框架——问题不在于AI会不会产生幻觉,而在于平台是否对AI生成内容的后果承担了足够的注意义务。
法院的判决:精准切割
南京中院的判决展现了对AI技术的精准理解。法院将百度的搜索产品分为两类,区别对待:
| 不构成侵权 | ||
| 构成名誉侵权 |

这个区分至关重要。法院并没有"一刀切"地惩罚AI,而是精准地识别出:传统搜索是信息检索,AI生成是内容生产——两者在法律义务上完全不同。
当百度AI不仅仅是"展示搜索结果",而是主动将文字内容和人物照片加工合成为一条指向明确的"新闻"时,它就已经越过了搜索服务的边界,进入了内容生产的领域。既然是内容生产者,就要对内容真实性承担法律责任。
三、不止一个受害者
李小亮案并非孤例。澎湃新闻的报道中披露了另一起案件:
北京律师黄贵耕案。 2025年5月,黄贵耕在百度搜索时发现,百度AI自动生成他"威胁法官、介绍贿赂、伪造印章、非法吸收公众存款"等多项刑事犯罪信息,且每一项虚假信息都直接关联他的律师身份。
2025年11月,北京海淀区法院立案受理了这起AI网络侵权责任纠纷案。目前该案尚未宣判,但百度的处境不容乐观——南京判例已经为同类案件提供了明确的裁判参考。
值得注意的是,这两起案件的受害者都是律师——一个对名誉极其敏感、维权能力最强的群体。如果连律师被AI诽谤都需要经过一审、二审、强制执行才能得到一纸道歉,普通人的处境可想而知。
四、判决背后的深层信号

信号一:"AI幻觉"不是免责理由
这是本案最核心的法律确立。百度在庭审中将"AI幻觉"作为核心抗辩,声称这是技术的固有缺陷,平台无法预见、无法控制。
法院没有接受这个逻辑。
判决的核心推理是:百度AI智能回答的内容是百度通过AI技术主动加工合成的,文字加上照片的组合产生了明确的指向性和贬损效果。百度作为AI系统的运营者,主观上存在过错。
翻译成通俗的话就是:你造的AI,你负责。
这与自动驾驶领域的法律逻辑一脉相承——特斯拉不会因为"自动驾驶系统是AI控制的"就免除交通事故责任。同样,百度也不能因为"内容是AI生成的"就免除名誉侵权责任。
信号二:AI搜索≠传统搜索
法院明确区分了传统搜索功能和AI生成功能的法律属性。传统搜索是"信息检索服务",而AI智能回答是"内容生成服务"。这个区分意味着:
• 搜索引擎可以依赖"避风港原则"——我不生产内容,我只展示别人的内容 • AI生成器不能依赖"避风港原则"——内容是你自己生产的,你必须确保其不侵害他人权益
这个裁判逻辑将深刻影响所有将AI搜索作为核心产品的公司,包括百度、Google、Perplexity等。
信号三:判决力度相对克制
值得注意的是,法院的判决在认定侵权的同时,也体现了对AI产业发展的审慎考量:
• 只判书面道歉,未支持原告要求的"百度网站置顶道歉" • 未支持精神损害抚慰金,因为原告未能提交证据证明实际损失 • 二审判决特别提到"本案发生于国内人工智能发展初期,受限于技术发展"这一背景
这说明法院并非要对AI产业"下狠手",而是在划定底线的同时留出发展空间。
五、百度至今拒绝道歉

一个令人深思的细节是:从二审判决(2026年3月12日)到记者发稿(2026年5月9日),已经过去了近两个月。百度公司始终没有履行生效判决。
二审期间,百度的诉讼代理人曾与李小亮沟通执行和解,但最终未达成一致。5月8日,李小亮接到南京江北新区法院执行局电话,告知强制执行案即将立案。
一家市值数百亿美元的公司,面对一份只需写一封道歉信的法院判决,选择了拒绝执行。这个事实本身,比任何法律分析都更能说明问题。
六、对AI行业的警示
本案虽然以百度为被告,但其影响远超百度一家。
对所有AI搜索公司而言: 你的AI不再只是"搜索引擎的增强功能",它是一个内容生产系统。你需要对它生成的内容负责。所谓"AI幻觉不可避免"的论调,在法律面前站不住脚。
对所有AI应用开发者而言: 如果你的产品会生成涉及真人名誉、隐私、商业信誉的内容,你需要建立完善的内容审核和纠错机制。事后补救不能替代事前预防。
对普通用户而言: 当你在AI搜索中看到关于某个人的负面信息时,请保持警惕——那可能是AI"幻觉"出来的。而如果你自己成为了AI诽谤的受害者,法律正在为你撑腰。
AI技术正在以前所未有的速度重塑信息生态。但技术的进步不能以牺牲个人权益为代价。中国AI大模型侵权第一案的判决传递了一个清晰的信号:在AI的世界里,法律不会缺席。
参考来源:澎湃新闻、南京市中级人民法院判决书
夜雨聆风