

你在短视频平台上刷到某人的一段视频、一组照片,你确定那就是他本人吗?
今年2月,在迪拜举行的世界顶尖科学家峰会上,牛津大学计算机科学系副教授阿米尔·戈哈沙迪(Amir Goharshady)分享了一个颇有深意的观察:“如果你们看看会议手册里所有参会者的照片,你会发现这些照片其实是经过AI处理过的‘深度伪造’。有趣的是,人们几乎分辨不出来。”戈哈沙迪坦言,自己也无法分辨这些照片的真假——“在我看来所有照片都很真实,除了我自己的那张。”
这一幕发生在以“AI能够发现任何事物吗?”为主题的圆桌对话中,这句临场的幽默并非玩笑,它所揭示的问题远不止一张参会照片那么简单。

峰会第一日,阿米尔·戈哈沙迪(台上左三)与印度科学研究院高级教授杰扬特·R·哈里察(Jayant R. Haritsa)(台上左二)及埃及青年科学家希沙姆·奥姆兰(Hesham Omran)(台上左四)共同开展圆桌对话,对话由香港科技大学前校长、阿卜杜拉国王科技大学前校长陈繁昌(台上左一)主持。
互联网正在变成“数字垃圾场”
戈哈沙迪长期聚焦于研究自动形式化证明与软件安全,他的警示不仅关乎影像的真假,还有互联网运转逻辑从根本上的位移。传统的互联网基于可溯信源,依靠具有创造性和低冗余度的信息来维持活力,而AI时代的运转逻辑已经悄悄转变为“概率模拟”——它不发掘真相,只把“看起来像真相”的字符或像素进行排列。
若“去真存假”的底层转变持续发生,终将指向令人担忧的未来。“我非常担心整个互联网的退化。会不会发展到这样一个程度:由于充斥着大量低质量的人工智能内容(AI slop),互联网最终对人类来说变得难以使用?”戈哈沙迪如是说。
2025年底,美国韦氏词典将“slop”选为年度词汇,将其定义为“通常由人工智能批量生成的低质量数字内容”。“Slop”一词带有黏稠、不洁的语感,本意指“泔水”“淡而无味的半流质食物”。
据新加坡SEO分析平台Ahrefs对90万个新网页的检测发现,截至2025年4月,74.2%的新建网页已包含AI生成内容[1]。情况在视频平台同样不容乐观,视频编辑公司Kapwing的研究显示,YouTube向新用户推荐的视频中,超过20%属于低质量“AI slop”——这些频道在全球已累计630亿次观看,拥有2.21亿订阅者,每年可创造约1.17亿美元收入。更令人担忧的是,英国《卫报》的分析发现,全球增长最快的YouTube频道中,只发布AI生成内容的频道占到近10%,内容涵盖“拟人猴绿巨人”、“西红柿直升机”、“拟人猫肥皂剧”等荒诞场景。[2]

拟人小猴和超级英雄伙伴视频,创作自YouTuber@KudoAnimalKiki88,该账号目前在油管共发布25条视频,内容均以拟人猴为主角,订阅者超307万。图源:YouTube
Slop如海啸般占领互联网,一个由AI内容主导的数字空间,正在从科幻变成现实。接着,AI开始“学习”前代AI生成的垃圾信息,进行自我复制和循环,模型崩坏(Model Collapse)出现。最终,互联网将不再反映现实世界。
当90%的内容都是AI“近亲繁殖”生成的干扰项,这时,人们为了获取一个事实,就需要付出巨大的核实成本。我们不禁思考,如果连会议手册上的照片都要怀疑,我们还怎么信任复杂的科研数据或公共政策?
眼见不再为实
被“污染”的信任共识
如果说垃圾内容只是让人困扰,那么“深度伪造”则是对人类社会契约的深度打击。戈哈沙迪的发现只是一个引子,在峰会多个论坛上,顶尖科学家们将批判拉升至人类社会生存的维度。
在AI科学论坛上,斯图尔特·哈伯(Stuart Haber)说到:“深度伪造和诈骗的大规模扩散,正在污染我们的社会环境以及我们对‘真实’的共同理解。”作为分布式系统与密码学先驱、区块链技术的共同发明人,哈伯在1991年就提出了为数字文件加盖“时间戳”的构想。但在峰会上,他表达出前所未有的忧虑:“世界上很多地方已经不再共享那种对真理的追求。我们甚至作为一个社会群体,都难以就最基本的事实达成一致。”

美国密码学家和计算机科学家斯图尔特·哈伯在世界顶尖科学家峰会上同与会嘉宾进行讨论。
区块链联合发明人斯科特·斯托内塔(W. Scott Stornetta)在峰会的区块链论坛上呼应了这一痛点:“随着科技的发展,我们很快会达到一个‘看见’不再等于‘相信’的时刻。”
一切并非抽象的理论推演。近日,国内短剧《桃花簪》盗用真人照片,利用AI技术恶意生成反派形象的事件占领舆论焦点。4月3日,该短剧被全面下架,出品方被暂停上传剧集15天。在该剧中,妆造师白先生被AI塑造成“贪财好色、身材矮胖”的负面人物,模特七海则被丑化为“虐待动物”的反派。该短剧平台热度超4000万,两人均遭受到不同程度的网络暴力。下架同日,国家互联网信息办公室起草了《数字虚拟人信息服务管理办法(征求意见稿)》,要求AI生成内容需标识且禁止滥用肖像。
这并非孤例,严峻的形势仍在国际性蔓延,同时,针对深度伪造的立法正在加速。美国总统特朗普于2025年5月签署《通过在网站和网络上消除技术性深度伪造来解决已知剥削的工具法》(Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act,简称《删除法案》)。根据该法案,未经个人同意,在各大社交平台和网站故意发布或威胁发布真实及人工智能生成的色情影像属于犯罪行为,该法案还要求科技公司在48小时内删除违规内容。[3] 今年1月,美国参议院通过了《打击非自愿深度伪造色情图像与篡改内容法案》(the DEFIANCE Act),赋予受害者起诉深度伪造内容创作者或传播者的权利。[4] 无独有偶,根据路透社1月10日发布的消息,德国司法部宣布采取措施打击恶意的人工智能图像操纵行为,将这一问题从伦理辩论范畴纳入刑法和个人保护范畴。[5]
诺贝尔物理学奖得主塞尔日·阿罗什(Serge Haroche)在峰会第三日的融合日上指出了一个极其讽刺的悖论:“在科学取得成功的同时,社会对科学的不信任却在加剧。假新闻等错误信息在社交网络上广泛传播……讽刺的是,这些攻击正是借助科学本身创造的工具——互联网和智能手机——得以扩散。当前人工智能的发展,更是放大了这些攻击可能造成的破坏力。”

2012年诺贝尔物理学奖得主塞尔日·阿罗什教授在世界顶尖科学家峰会与世界政府峰会(WLS·WGS)融合日上发表演讲。
数字时代的“钢印”
用技术制衡技术
危机面前,科学家们并未坐以待毙,而是试图在算法的底层架构上建立起防御机制。
哈伯与斯托内塔这对老搭档提出,必须在互联网之上构建一层“不可伪造的社会身份层”。哈伯指出,技术本身可以提供帮助:“使用密码学工具来提供来源证明。我们现在有一个新的项目,称为SureMark,旨在通过在现有互联网之上增加一层可验证且不可伪造的社会身份层,来对抗深度伪造。”
SureMark是哈伯近期主导的加密安全验证系统。它并非简单地标记伪造,而是通过密码学来源证明,为财富管理等高信任行业提供“身份钢印”。目前SureMark已推出面向财富管理行业的身份保护套件,提供加密安全的验证。
斯托内塔也强调:“需要有一种不可伪造的身份保护机制,或通过共识来保护身份,这才是未来的关键问题。”
技术之外
呼唤人文学科的回归
“现在反而比以往任何时候都更需要人文学科。”香港科技大学第三任校长、阿卜杜拉国王科技大学第三任校长陈繁昌在峰会上如是说。作为美国国家工程院院士,陈繁昌深耕图像处理与计算机视觉多年,他的观点仍极具教育家的人文底色:“在人工智能时代,培养科学家的过程中,更重要的是判断力。如何进行背景调查和核实?如何收集正确的数据,并与合适的人交流,以判断某件事到底是真是假。”

陈繁昌主持世界顶尖科学家峰会AI科学论坛(WLS·AI Science Forum)圆桌对话。
2025年诺贝尔化学奖得主奥马尔·亚吉(Omar Yaghi)补充道:“人类未来面临的一个重要挑战就是寻找事实。将实验与人工智能工具结合在一起,对于确保我们坚持事实至关重要,而这正是科学家一直在做的事情。”
对真实的渴望
靠制度重构信任
从制度层面,机器学习泰斗、“AI三巨头”之一的迈克尔·欧文·乔丹(Michael I. Jordan)提出了更宏观的思考。他指出,人类文明在数千年的市场演化中,已经形成了一套使陌生人能够彼此合作的信任机制——“如果我进入一个市场,而你告诉我某件事是有效的,我如何确认你说的是真话?……市场在数千年的发展过程中,逐渐形成了一整套机制,使得人们即使在彼此并不完全信任的情况下,也能够进行合作和交流。”
AI时代的信任危机本质上与数千年前陌生人市场交易的信任危机是一致的——只是规模更大、速度更快。人类曾通过法律、契约与声誉系统解决了市场信任问题,现在我们需要为AI建立“声誉”——一套包含身份验证、来源追溯、声誉评价和违规追责在内的制度框架。
去年12月,欧盟委员会发布了《人工智能生成内容标签与识别行为准则》(Code of Practice on the labelling and identification of AI-generated content)第一版草案。该文件将《人工智能法案》(the AI Act)的透明度原则转化为可执行的程序:采用机器可读标签、披露人工智能生成信息,并明确平台责任。[6] 中国网信办发布的《人工智能生成合成内容标识办法》也于去年9月正式施行——这些正是制度层面重构的开端。[7]
当然,技术标准与法律规制只是底线。也许正如陈繁昌所言,我们无比需要人文精神的回归。在AI可以批量生产“看似合理”的虚假信息时代,让人类独有的判断力、质疑精神,以及对事实的执着追求,成为我们最后的护城河。真相并不会因为技术的进步而自动归来,我们能选择相信的,是那些验证真伪的过程、追溯来源的坚持,以及那些愿意为真相站出来的理性个体。
毕竟,技术也许可以伪造一切,除了人类对真理那份近乎偏执的渴望。
参考资料:
[1] Ahrefs, “74% of New Webpages Include AI Content (Study of 900k Pages)”, 2025.
[2] The Guardian, “More than 20% of videos shown to new YouTube users are 'AI slop', study finds”, 2025.
[3] TAKE IT DOWN Act, S.146, 119th Cong, 2025.
[4] DEFIANCE Act of 2025, S.1837, 119th Cong, 2025.
[5] Reuters, “Germany plans measures to combat harmful AI image manipulation”, 2026.
[6] European Commission, “Commission publishes first draft of Code of Practice on marking and labelling of AI-generated content”, 2025.
[7] 中国国家互联网信息办公室等,《人工智能生成合成内容标识办法》,2025。


欢迎在抖音、视频号、bilibili、知乎和小红书关注
“世界顶尖科学家峰会”
当科学力量以前所未有的速度重塑人类命运,世界顶尖科学家协会(World Laureates Association, WLA)——人类历史上首个由当代顶尖科学家共同治理的科学文明组织——正致力于推动这一重塑进程,并始终由科学的求实精神所引领。世界顶尖科学家峰会(World Laureates Summit, WLS)正是这一理念最具代表性的实践,也是其被定义为科学文明制宪会议的重要理由。WLS也是迄今为止最接近弥合科学与决策之间结构性鸿沟的制度性探索。
夜雨聆风