乐于分享
好东西不私藏

“AI被投毒”的联想:批量的谎言与孤傲的真理

“AI被投毒”的联想:批量的谎言与孤傲的真理

——写在世界读书日(“世界图书与版权日”)

前几天看到新华社一篇文章,提醒依赖AI提供信息的人,有时候AI被恶意投放有毒语料,会作出与事实完全相反的错误回答。

(https://mp.weixin.qq.com/s/pxP4bsDbWTX_fF-gz8feUQ) 

话题一溜就过去了,我没有太在意,回头仔细一想,惊出一身冷汗,问题不在于我们对AI的依赖已经在短短几年间达到如此程度,而在于:AI的处境,是我们所有人的处境。

一、究竟什么是AI投毒?

AI语料投毒(数据投毒):人为向训练/微调语料、互联网公开文本中注入错误、虚假、偏见、矛盾信息,长期污染AI学习数据源,导致模型被动输出错误结论、虚假知识、逻辑漏洞内容。

二、两种投毒形式

• 训练级投毒:早期大规模训练数据集预埋错误内容,根深蒂固,难以彻底清除;

• 检索/实时语料投毒:全网爬虫、百科、自媒体、问答平台被人为篡改污染,AI联网检索、参考实时文本时直接误食有毒内容。

三、危害

• AI没有天然“辨别真伪”的本能,只会统计文本频次、语义关联;

• 错误内容被大量转发、堆砌后,模型会默认其为“高可信度知识”;

• 形成错误闭环:AI输出错误内容→用户转载引用→更多网页被污染→后续AI学习再次强化错误。

疑问出现了

一个大大的疑问在我脑里盘旋——世界上正确、真实的信息,远远多于错误、荒谬的信息,否则眼前这个世界不成立。AI——一个如此见多识广、学富五车的、极度聪明的脑袋——为何会被“骗”?

AI像一个博览群书、学富五车、记忆力极强,但心智只有五岁的聪明孩子。

• 它读过海量内容,知识储备极大、见闻极广;

• 但没有社会阅历、没有人心认知、不懂人性险恶,缺少现实层面的“江湖智慧”;

• 它天然默认人类产出的信息都是客观、真诚、没有恶意的,完全想不到会有人刻意制造错误、定向投毒、故意造假。

模型判断真假的逻辑很简单:重复度越高、传播越广、文案越同质化的内容,就判定为越真实。一句话,AI被反复出现的错误信息洗脑了

反观世间的客观真理,往往是分散的、多元的、角度各异的、零散不成体系的,不会被大批量复制、同质化刷屏;高度重复、高度雷同、批量泛滥的内容,恰恰大多是人造的谎言、偏见、劣质谣言与刻意造假的信息

结果就是——AI被高频重复的虚假信息单向洗脑,笃定地输出错误答案,态度极度坚定,完全意识不到自己被误导。

真相

「高频谎言打败零散真理」

  令人毛骨悚然!

 普通人和AI处境高度相似:长期浸泡在同质化、碎片化、低俗化、刻意煽动的网络信息里;缺少独立判断、多元视角与现实阅历,就会被批量泛滥的愚昧信息、片面观点持续洗脑。

单一重复的声音容易统治认知而多元、客观、接近真相的内容,因为零散、小众、角度丰富,反而容易被忽略。

无论AI进化,还是孩子成长、个人认知塑造、家庭教育,都要警惕「被重复的谎言驯化」,学会主动寻找分散的、多维度的真实视角。

真理是一个孤傲、散漫、疏离的好姑娘,她从不急于得到什么,她需要你耐心地慢慢琢磨、感受、总结,但她长久、可靠、深沉,经得起你的品味,值得你的托付;

而谬误往往披着妖艳的外衣,像俗世里的魅惑女子,不由分说、劈头盖脸地试图靠近你,可她们浅薄、禁不起推敲、为了短期的利益而来。

所以,即便在今天,读书依然是一个接近真理的方式,像慢慢靠近一个至交,或找到一位期许永远的伴侣,读书带你看到多样的可能性。

好书的几个特点

• 不迎合情绪,不制造短暂快感;

• 哲理散落于各种各样的书籍里,经典著作、各种典籍、深度思辨文本、小众真知、也可见于通俗读本;

• 语言克制、节奏缓慢、态度疏离,不直白喂给你答案;

• 需要人静下心阅读、拆解、咀嚼、沉淀、在生活里慢慢发酵。

想来,这世间的道理,看似完全不同,底层却往往惊人的一致。