百度AI造谣案或成中央网信办整治AI乱象的标本
据人民日报2026 年 4 月 30 日报道,中央网信办启动为期4 个月的 “清朗・整治 AI 应用乱象” 专项行动,剑指 AI 虚假信息、数据投毒、内容标识缺失、滥用换脸拟声、网络水军等突出问题。就在政策落地之际,百度 AI 批量生成虚假犯罪信息、侵害公民名誉权的系列案例持续发酵,从律师黄贵耕、安振杰、李小亮等纷纷被百度AI 造谣定罪,到多位普通民众遭无妄之灾,百度AI 造谣已成为 AI 应用失范的典型样本,恰好撞上监管重拳,成为此次专项整治的重点对标案例。
此次整治分两阶段推进,第一阶段聚焦源头治理,严查大模型备案、安全审核、训练语料合规、数据投毒、内容标识等问题;第二阶段集中清理AI 生成虚假信息、假冒仿冒、暴力低俗、侵害未成年人、网络水军等内容乱象。百度 AI 的种种乱象,几乎与整治清单高度重合。
百度AI 多次无依据生成律师及普通民众 “犯罪记录”,伪造印章、威胁法官、非法吸收公众存款等罪名凭空出现,经搜索入口扩散后,严重侵害他人名誉权、职业信誉。这正是第二阶段重点整治的制作发布虚假不实信息,属于典型的AI 造谣侵权。更值得警惕的是,此类错误并非偶发,而是批量、反复出现,即便法院判决侵权、要求整改,虚假信息仍长期留存,平台责任严重缺位。
从源头治理看,百度AI 同样触碰多条红线。其一,安全审核能力严重不足,缺乏有效内容核验与风险拦截机制,同类错误在豆包、腾讯元宝、阿里千问等平台均可避免,证明问题并非不可控的“AI 幻觉”,而是平台审核失守、重流量轻合规所致。其二,训练语料与信源管理混乱,对公开信息张冠李戴、随意替换姓名,未做交叉验证与风险提示,符合整治要点中“训练语料审核不严、信源缺乏验证” 的情形。其三,生成内容标识与纠错机制缺失,即便标注“AI 生成” 也不做事实核验,放任虚假信息传播,违反生成合成内容标识与内容安全管理要求。
百度多次以“AI 幻觉” 作为免责借口,在诉讼中辩称 AI 输出是技术局限、平台无主观过错。但司法与监管早已明确:AI 服务提供者须承担内容生产者责任。《生成式人工智能服务管理暂行办法》要求平台保障信息真实准确、及时处置违法不良信息、健全投诉处理机制,百度作为头部搜索与AI 服务商,未履行法定义务,被判侵权后拖延整改,本质是把技术红利留给自己、把侵权风险甩给公众。
AI 发展不能突破法律与伦理底线,更不能以牺牲公民合法权益为代价。中央网信办此次专项行动,就是要纠偏 “重创新、轻合规”“重流量、轻责任” 的行业倾向,压实平台主体责任,筑牢安全与诚信底线。百度 AI 造谣案的典型意义在于,它集中暴露了大模型应用从训练、审核、生成到传播全链条的失职失责,是整治行动中必须整改的标杆案例。
技术向善是AI 发展的根本遵循。当普通人搜索姓名就可能被 “AI 定罪”,当法律从业者因虚假信息丧失公信力,技术便异化为伤害工具。此次清朗行动向全行业释放明确信号:AI 不是法外之地,幻觉不能当挡箭牌,平台必须对生成内容负责到底。
百度AI 造谣案不应只当做个案处理,而应成为AI 治理的镜鉴。期待以专项整治为契机,压实平台责任、完善技术防控、强化司法约束,让虚假信息无处藏身,让 AI 真正服务公众、守护权益,还网络空间一片清朗。
作者黄贵耕(原资深法治新闻调查记者曾就职《人民法治》《法治日报》等多家新闻机构,现专职执业律师)
夜雨聆风