乐于分享
好东西不私藏

「不能让AI误导公众」——人民日报五一发声,这信号你得读懂

「不能让AI误导公众」——人民日报五一发声,这信号你得读懂

5月1日劳动节,人民日报发文直言:“不能让AI生成内容误导公众”。
多个App和网站因未落实AI生成内容标识规定被约谈、处罚。假图片、假视频、假新闻,AI让造假成本降到几乎为零。
同一天,MIT宣布突破:研究团队研发出能在普通设备上进行隐私保护AI训练的新方法——以后你的手机就能练AI模型,数据不用上传云端。
一个喊”踩刹车”,一个喊”加把油”,AI时代的两面性在五一这天撞了个满怀。

【回溯当年】

  • 1455年:古腾堡印刷第一本《圣经》——信息第一次可大规模复制,教会慌了,怕普通人瞎解读。
  • 1839年:达盖尔摄影术诞生——”照片不会说谎”成了接下来近200年的共识。
  • 1938年:奥逊·威尔斯广播剧《世界大战》引发全美恐慌——假消息第一次靠现代传媒造成社会混乱。

【古今对照】

从古腾堡印书(1455年)到AI一键生成假新闻(2026年)——571年,人类始终在信息自由与信息失真之间摇摆。
1938年广播剧造假靠一个人的声音,2026年AI造假靠一个系统。技术越进步,防骗难度越大。
看到人民日报这个表态,我又安心又感慨。安心的是有人在管这事儿。感慨的是,从古腾堡到AI,每次人类发明新”造信息”的方式,都要花好多年才能学会怎么管它。
不过MIT那个研究挺有意思——在手机上练AI还保护隐私。技术越是狂奔,越需要有人给这条路修护栏。一边造路一边修护栏,这才是正经事。