以前大家信「有图有真相」,本质是因为拍一张真实的图,成本比造假高多了。现在这个逻辑彻底不成立了。GPT Image 2 生成前能联网搜当天的新闻,能生成完全符合当下语境的假图,能做收据、文件、公告,甚至你拍的现场照它都能给你改得亲妈不认,成本就几分钱。真的就像刘慈欣写的黑暗森林,你刷到的每一张现场图、每一份爆料截图,你根本不知道背后是记者的相机还是 AI 的算法。
维度
GPT Image 2
早期 AI 图(2022)
文字渲染
英文 99%,中日韩 >90%
严重错乱,随机乱码
聊天截图伪造
完美还原界面细节
气泡颜色、字体均有破绽
品牌视觉仿制
可精准匹配设计风格
细节粗糙,专业度低
生成成本
分钱级别,秒级生成
相对较高,需多次迭代
肉眼可辨识度
极低,几乎无法分辨
破绽明显,较易识别
03面对黑暗森林,我们怎么办
不是恐惧,而是升级
第一步:重建信息认知框架
很多人慌,说以后什么都信不了了,我倒觉得没必要焦虑,反而刚好逼着我们改改以前看个图就转的坏习惯。首先就是别再把图片当证据,就当个线索就行。本来以前没 AI 的时候,图片也能 p,能剪,能选角度,只是现在 AI 把这事儿摆到台面上了而已。看到一张让你特别生气或者特别感动的图,先别转,先看看是谁发的,有没有其他靠谱的信源佐证。
第二步:建立你的信息锚点
再就是找你自己的信息锚点。比如那些做了十几年的靠谱媒体,有正式追责机制的官方渠道,还有那些要脸的专业从业者发的内容,不是说他们绝对不会错,但起码他们发的东西出了问题能找到人,有纠错机制,AI 生成的假图可不会为造谣负责。当然最靠谱的还是你自己亲眼见的、亲身经历的事,这些东西 AI 再怎么牛也改不了,你的真实经验越多,越不容易被假图带节奏。
第三步:学会“元认知式”阅读
还有个习惯我现在一直在练,就是刷到内容的时候先多想一步:这东西为什么推给我?它想让我干嘛?谁能从我信了这玩意儿里获益?尤其是那种一看就挑情绪的,比如气得你想骂人的,或者让你特别同情的,越要停一秒 —— 你这情绪是不是故意被人设计出来的?真的丑闻不需要假图来添油加醋,真的悲剧也不需要 AI 来渲染,情绪越满的内容,越要留个心眼。
第四步:善用技术,以子之矛攻子之盾
好消息是:用来鉴别 AI 生成图片的技术,正在与生成技术同步发展。Google 的 Nano Banana 内置了 SynthID 水印;各大平台正在逐步引入 AI 内容标识系统;中国网信办等四部门已联合发布《人工智能生成合成内容标识办法》,强制要求平台对 AI 生成内容进行标识。
在你不确定一张图的真实性时,可以尝试:反向图像搜索,看看它的来源;使用 AI 检测工具做初步判断;查阅图片的元数据;在多个信源之间交叉比对。这些步骤并不繁琐,却能把你从被动的信息接受者,变成主动的信息审核者。
04强者恒强,AI 是放大器
工具放大的,是使用者本身
AI 不会取代判断力,只会放大它
不过我还是得说,别把 AI 当洪水猛兽,它就是个工具,和以前的锤子、打印机没区别,好人用它做好事,坏人用它干坏事,放大的本来就是用的人的本事。对会独立思考、懂内容创作、有辨别能力的人来说,这玩意儿太香了,脑子里想的画面几秒就能出图,设计师做原型快了好几倍,做科普的能把复杂的知识点直接做成可视化的图,省了多少事。以前印刷机出来的时候也有人慌,互联网出来的时候也有人说要乱,最后不都是会用的人拿到了红利?
什么人会在这个时代越来越强
我觉得以后能混得好的人,说白了就是三个特点:第一不傻,有自己的判断逻辑,不会看到一张图就信以为真;第二不懒,会用 AI 给自己打工,而不是什么都靠 AI,核心的想法和判断还是自己的;第三不固步自封,新工具出来就学着用,知道它能干什么不能干什么,自然就不会被坑。