乐于分享
好东西不私藏

图片公信力的终结——AI生图将现实和互联网变成了黑暗森林

图片公信力的终结——AI生图将现实和互联网变成了黑暗森林

2026 年 5 月

至此,有图有真相的时代已经过去了。

GPT Image 2 来了——我们如何在黑暗森林中找到自己的光

 提示词如下:

给我生成一张中国千禧年间的一家三口,妈妈在陪女儿玩,爸爸在沙发上看电视,实拍,去除AI痕迹。

GPTimage2给出的图片是这样的:

或许你会觉得这是我从网上拔下来的。但事实是:

01这一次,不一样了

一个技术奇点,一次感知革命

GPT Image 2 究竟做了什么

4 月 21 号 OpenAI 发的 GPT Image 2,这次真的是彻底换了赛道。整个图像生成架构全部从头重写,还加了 O 系列的推理能力,生成图之前它会先自己联网搜信息,核对细节,搭好构图再出图,是业内第一个会「先想再画」的图像模型。上线几个小时就冲到 Image Arena 排行榜第一,ELO 分 1512,比第二名高了 242 分,OpenAI 直接宣布停掉之前的 DALL・E2 和 3,摆明了就是说这代产品没对手。
它的能力有多夸张?英文文字渲染准确率 99%,中日韩这些非拉丁语系也有 90% 以上,默认出 2K 图,API 能开 4K,甚至你一个指令就能出 8 张风格完全统一的图,连品牌 VI 的色值都不会差一丝。

从“看得出来”到“完全看不出来”

还记得 2022 年的 AI 图吗?六根手指,脸歪眼斜,一眼假。2024 年得放大到像素级找 bug,去年 GPT Image 1 出来的时候,已经没几个普通人能分辨了。这次 GPT Image 2 发了之后,我看了麻省理工做的一项测试,1200 个受试者里,能正确认出 AI 图的人不到 17%。那份测试报告里直接写了一句话:「图片的公信力,到这代模型算是彻底崩了。」

「图片的公信力,在这一代模型上,彻底崩塌了。」

02黑暗森林已经到来

每一张图,都是一个未知数

微信聊天记录:最难防的那种假

最先崩的就是大家平时见得最多的聊天截图。之前伪造聊天记录还容易出 bug:气泡颜色不对,字体间距歪了,时间戳格式错了,现在 GPT Image 2 对界面的理解精确到像素,你要谁和谁的聊天记录,说什么内容,配什么表情包,甚至连「已读不回三天才回话」的那种对话间隙感都能给你做出来。之前我们当实锤的聊天记录,现在输入提示词几十秒就能做一张,轻则名誉受损,重则引发法律纠纷,甚至被用来操控舆论,等当事人反应过来要澄清,谣言早就转了几万次了。

看着很真的聊天记录截图,其实是用AI生成出来的。

这意味着你在互联网上看到的任何一张聊天截图,都已经无法仅凭肉眼判断真假。明星出轨记录、商业纠纷证据、私人对话曝光——这些曾经被视为“实锤”的材料,现在只需要几十秒和一个提示词就能伪造出来。

恶作剧是轻的,名誉损害、法律纠纷、舆论操控 才是真正的代价。而受害者往往在谣言已经扩散数万次之后,才能开始澄清。

蜜雪冰城 × 无畏契约:当 AI 海报以假乱真

给大家看一张在评论区出现次数非常多的一张”蜜雪冰城与无畏契约联名海报”:

互联网的基础假设,崩了

以前大家信「有图有真相」,本质是因为拍一张真实的图,成本比造假高多了。现在这个逻辑彻底不成立了。GPT Image 2 生成前能联网搜当天的新闻,能生成完全符合当下语境的假图,能做收据、文件、公告,甚至你拍的现场照它都能给你改得亲妈不认,成本就几分钱。真的就像刘慈欣写的黑暗森林,你刷到的每一张现场图、每一份爆料截图,你根本不知道背后是记者的相机还是 AI 的算法。 

维度

GPT Image 2

早期 AI 图(2022)

文字渲染

英文 99%,中日韩 >90%

严重错乱,随机乱码

聊天截图伪造

完美还原界面细节

气泡颜色、字体均有破绽

品牌视觉仿制

可精准匹配设计风格

细节粗糙,专业度低

生成成本

分钱级别,秒级生成

相对较高,需多次迭代

肉眼可辨识度

极低,几乎无法分辨

破绽明显,较易识别

03面对黑暗森林,我们怎么办

不是恐惧,而是升级

第一步:重建信息认知框架

很多人慌,说以后什么都信不了了,我倒觉得没必要焦虑,反而刚好逼着我们改改以前看个图就转的坏习惯。首先就是别再把图片当证据,就当个线索就行。本来以前没 AI 的时候,图片也能 p,能剪,能选角度,只是现在 AI 把这事儿摆到台面上了而已。看到一张让你特别生气或者特别感动的图,先别转,先看看是谁发的,有没有其他靠谱的信源佐证。

第二步:建立你的信息锚点

再就是找你自己的信息锚点。比如那些做了十几年的靠谱媒体,有正式追责机制的官方渠道,还有那些要脸的专业从业者发的内容,不是说他们绝对不会错,但起码他们发的东西出了问题能找到人,有纠错机制,AI 生成的假图可不会为造谣负责。当然最靠谱的还是你自己亲眼见的、亲身经历的事,这些东西 AI 再怎么牛也改不了,你的真实经验越多,越不容易被假图带节奏。

第三步:学会“元认知式”阅读

还有个习惯我现在一直在练,就是刷到内容的时候先多想一步:这东西为什么推给我?它想让我干嘛?谁能从我信了这玩意儿里获益?尤其是那种一看就挑情绪的,比如气得你想骂人的,或者让你特别同情的,越要停一秒 —— 你这情绪是不是故意被人设计出来的?真的丑闻不需要假图来添油加醋,真的悲剧也不需要 AI 来渲染,情绪越满的内容,越要留个心眼。

第四步:善用技术,以子之矛攻子之盾

好消息是:用来鉴别 AI 生成图片的技术,正在与生成技术同步发展。Google 的 Nano Banana 内置了 SynthID 水印;各大平台正在逐步引入 AI 内容标识系统;中国网信办等四部门已联合发布《人工智能生成合成内容标识办法》,强制要求平台对 AI 生成内容进行标识。

在你不确定一张图的真实性时,可以尝试:反向图像搜索,看看它的来源;使用 AI 检测工具做初步判断;查阅图片的元数据;在多个信源之间交叉比对。这些步骤并不繁琐,却能把你从被动的信息接受者,变成主动的信息审核者。

04强者恒强,AI 是放大器

工具放大的,是使用者本身

 

AI 不会取代判断力,只会放大它

不过我还是得说,别把 AI 当洪水猛兽,它就是个工具,和以前的锤子、打印机没区别,好人用它做好事,坏人用它干坏事,放大的本来就是用的人的本事。对会独立思考、懂内容创作、有辨别能力的人来说,这玩意儿太香了,脑子里想的画面几秒就能出图,设计师做原型快了好几倍,做科普的能把复杂的知识点直接做成可视化的图,省了多少事。以前印刷机出来的时候也有人慌,互联网出来的时候也有人说要乱,最后不都是会用的人拿到了红利?

什么人会在这个时代越来越强

我觉得以后能混得好的人,说白了就是三个特点:
第一不傻,有自己的判断逻辑,不会看到一张图就信以为真;
第二不懒,会用 AI 给自己打工,而不是什么都靠 AI,核心的想法和判断还是自己的;
第三不固步自封,新工具出来就学着用,知道它能干什么不能干什么,自然就不会被坑。

「会用 AI 的人只会越来越强,本身就强的人,AI 会让他越来越强。」

05结语:图片死了,思考活着

在裹挟中,保持你自己

摄影术发明之初,画家们曾经集体恐慌:当机器可以完美记录现实,绘画还有什么存在的意义?后来的历史告诉我们:摄影没有杀死绘画,而是把绘画从“记录现实”的任务中解放出来,逼出了印象派、立体主义、抽象表现主义——那些比照片更真实的“真实”。

「信息的洪流可以裹挟一切,唯独裹挟不了一个真正在思考的人。」

在这个图片真假难辨的时代,我们需要的,不仅是更好的 AI 工具,更是更清醒的自己。不被情绪操纵,不被算法驯化,不因为一张海报足够精美就放弃追问它的来源,不因为一段聊天记录足够逼真就放弃质疑它的动机。

黑暗森林里,有光的人,不是那些拥有最多工具的人,而是那些知道如何思考、并且坚持思考的人。

保持好奇,保持怀疑,保持你自己——这是 AI 永远无法替你完成的事。