刷到百度AI造谣律师的新闻,看得我一愣一愣的,以前没有AI的时候,某度平台就是杂草丛生,现在有了AI依然死性不改。
这事儿还不是个例,越来越多的AI幻觉正在变成实实在在的侵权伤害,而背后的平台却总想着甩锅。
先说说南京律师李小亮的遭遇,这事已经闹到强制执行的地步了。
2024年9月,他偶然发现,在百度上搜“李小亮律师”“南京李小亮”这些关键词,百度的“AI智能回答”直接给他安了个“爆炸犯”的罪名:“李小亮律师被判三年有期徒刑,根据搜索结果,被告人李小亮因犯爆炸罪,被判处有期徒刑三年”。
更过分的是,回答下面还配了他穿律师袍的证件照,指向性明明白白。
律师这行,声誉就是饭碗。
那段时间,有客户看到搜索结果后直接取消了委托,还有同行私下打听他是不是真有案底,搞得他百口莫辩。李小亮气不过,直接把百度告上法庭,要求置顶道歉并索赔100万。
结果百度在法庭上的操作,真是让人开了眼。
他们先是说“这是AI幻觉,技术发展初期有局限,我们没法预见”,又说“是原告用了诱导性提问才导致的错误”,最后甚至放狠话:“这是中国AI大模型侵权第一案,要是这么判,会给整个产业带来巨大冲击”,恳请法院“审慎审理”。
这话听着就挺荒谬的——技术没成熟,就能随便造谣别人?
法官显然也没吃这一套。南京江北新区法院一审直接认定,百度AI是通过技术加工合成了指向明确的虚假贬损信息,客观上降低了李小亮的社会评价,已经构成名誉侵权。
考虑到他没提交具体损失证据,没支持百万索赔,但判决百度必须书面道歉,内容还得经法院审核。
百度不服上诉,结果南京市中院二审维持原判。
可直到现在,百度还是拖着不履行判决,李小亮没办法,只能申请强制执行,目前法院已经要立案了。
更让人揪心的是,李小亮不是唯一的受害者。
北京还有个叫黄贵耕的律师,2025年5月在百度上搜自己名字,发现百度AI给他编了一整套“犯罪履历”:威胁法官、介绍贿赂、伪造印章、非法吸收公众存款,每一条都直指他的职业身份。
那段时间,他每天都要跟客户、朋友解释“这些都是假的”,精神压力大到失眠。他也把百度告了,案子去年11月就立案了,现在还在等宣判。
除了律师群体,普通人和企业也没能幸免。
我还看到过一个案例,深圳有家做环保设备的小企业,百度AI竟然生成“该企业偷排污水被处罚500万”的虚假信息,还引用了“当地环保局通报”的假来源。
结果合作方看到后直接终止了合同,企业损失惨重。还有一位普通网友,因为和某个负面新闻的当事人重名,被AI自动关联成“涉案人员”,搜索结果里全是负面信息,找工作都受了影响。
反观其他AI平台,为什么很少出现这种针对性的虚假贬损信息?关键还是风控有没有做到位。
这些平台要么对涉及个人身份的敏感查询设置了严格的内容审核,要么在生成回答时会标注“信息仅供参考,建议核实来源”,而百度的AI不仅直接生成虚假信息,还主动配上个人照片,相当于把“造谣”包装成了“官方答案”,杀伤力翻倍。
其实国家早就意识到了这个问题,前段时间三部门刚印发《智能体规范应用与创新发展实施意见》,明确要求AI发展要“守牢安全底线”,防范算法、数据等安全风险。
可有些平台就是把规定当耳旁风,只想着抢占AI流量红利,却不愿在风控上多花功夫。
某度在庭审中一直强调“AI幻觉无法预见”,但这根本站不住脚。
AI是平台开发的工具,平台有责任对其输出内容进行把关。就像工厂生产产品要保证质量安全一样,AI生成的内容也得有基本的真实性底线。
不能一边享受着AI带来的流量和收益,一边把侵权的锅甩给“技术本身”。
这几起案件的判决,其实已经给整个行业划下了红线:AI幻觉不是免责理由。
不管技术多新、发展多快,都不能凌驾于公民的合法权益之上。平台不能只想着往前冲,更要守住法律和道德的底线。
比如在生成涉及个人身份、企业声誉的内容时,增加人工审核环节,或者对不确定的信息进行标注,这些都是能做到的风控措施。
对我们普通人来说,也得提高警惕。
现在刷到AI生成的信息,尤其是涉及个人负面、企业违法这类内容,别轻易相信,最好多找几个来源核实一下。
如果遇到被AI造谣的情况,也别自认倒霉,要像李小亮、黄贵耕律师那样,拿起法律武器维权——只有受害者敢于发声,才能倒逼平台重视风控。
说到底,AI技术的发展是为了让生活更便利,而不是为了给造谣提供新工具。
如果平台们继续抱着“技术无罪”的侥幸心理,放任AI幻觉伤人,最终只会失去用户的信任。
毕竟,再先进的技术,要是没了底线,也走不长远。
希望百度这起强制执行案能给所有AI公司敲响警钟:技术可以创新,但责任不能缺位。
夜雨聆风