眼见不为实——AI时代,我开始怀疑自己的认知地图
一
前几天,孩子发了几张照片发到群里。
场景是我们在附近散步、在白宫门前合影、故乡的桥头留影。照片里的人确实是我们,光线自然,构图合理,连阴影的角度都经得起推敲。
可问题是我们没有一起去过华盛顿啊,就连那张“散步”的照片,我也完全没有印象什么时候拍过。问孩子是什么时候拍的?他说是AI生成的,AI已经进步到这样了?我感叹道“看来现在眼见也不能为实啊”。
今天我一个人待着的时候,莫名其妙又想起这件事。越想越觉得不对——不是因为“有人造假”,而是因为我发现自己对这件事的反应,轻描淡写得不正常。
“眼见不为实”这件事,如果是十年前发生,大概会是一个轰动事件。今天发生,我们几乎是用一种刷到一条有趣短视频的态度,把它吞进去了。
这个反应本身,比AI生成照片这件事,更值得想清楚。
二
“眼见为实”这四个字,大概是中国人认知版图里最根深蒂固的信念之一。
从小被教的道理里,“耳听为虚,眼见为实”排在很靠前的位置。照相机发明之后,“有图有真相”更是把这个信念固化成了现代社会的运行规则。新闻照片证明事件发生了,监控录像证明谁闯了红灯,医学影像证明身体里长了什么。
我们整个现代文明的信任体系,本质上建立在“图像≈证据”这个等价关系之上。
然而这个等价关系,在最近两三年里,开始以肉眼可见的速度崩塌。
最初是AI能写文章,大家觉得还好,文字本来就可以编造。然后是能画画,艺术家们开始紧张,但普通人觉得跟自己没关系。再后来是能生成视频,大家才开始真正慌——因为视频一直是“最强证据”,现在连这个也保不住了。
孩子用AI生成的那几张照片,用的可能不是什么高深的模型,就是一个普通人随手能用的工具。门槛之低,效果之好,意味着“眼见为实”的失效,不是将来时,是现在完成时。
但这件事真正让我意识到它的普遍性,是我在网上看到另一条新闻——2025年2月,有人用AI深度合成技术,伪造了全国政协委员张文宏的形象和声音,在直播间里卖蛋白棒,成功售出了1200多件。
观众看到的,是“张文宏本人”在推荐产品。声音、表情、说话方式,都和本人高度相似。很多人下单,不是因为产品好,而是因为他们看到了“真人”。
张文宏本人后来出来辟谣,但辟谣的传播范围,远不及那条AI合成视频。这是“眼见不为实”在社会尺度上的另一个版本——当假内容比真内容传播得更快,“真相”的定义本身就需要重写。
这件事为什么让我不安?不是因为AI“会骗人”,真正让我不安的是:当“真实”的判断标准被动摇之后,我们用来理解世界的一套底层逻辑,是不是也在跟着松动?
这个问题,我目前没有答案。但我觉得,值得认真想一下。
三
我想先说一个自己的经历。
过去几个月,因为工作的关系,开始比较密集地使用各种AI工具。最开始的心态很实用主义——哪个工具能帮我提高效率,我就用哪个。查资料、写文档、整理信息,AI做得确实不错。
但用着用着,我发现自己的某些习惯在悄悄变化。
比如,以前遇到一个不懂的问题,我会去翻书、搜资料、对比不同来源,最后形成一个自己的判断。现在,我可能会先问AI,得到一个答案之后,再去验证。表面上,我还是在验证,但提问的顺序变了——我从一个“主动探索者”变成了一个“先接受再质疑的人”。
这个变化很细微,但细想起来有点吓人。
心理学里有一个概念叫“锚定效应”——人做判断的时候,会被第一个接收到的信息强烈影响。以前我们查资料,第一眼看到的信息是搜索结果里的某篇文章,它的影响力是有限的,因为你会主动看更多来源。但现在,AI给你的答案,往往是以一种“总结性陈述”的面貌出现的——它看起来客观、全面、有条理,你很容易在不知不觉间,把它当作思考的起点,而不是思考的对象。
我不是说AI在故意误导谁。我是说,我的认知习惯,正在被我使用的工具重塑。而我几乎没有意识到这件事在发生。
这大概就是为什么“眼见不为实”这件事,值得从认知层面认真对待——不是因为AI生成的内容真假难辨,而是因为当真假的判断成本急剧上升之后,我们的大脑会自动切换到“信任模式”,而不是“验证模式”。这种切换,在信息量爆炸的时代,可能是大脑的自我保护机制。但它的代价是:你以为你在思考,其实你只是在接受。
有一个案例让我对这件事有了更具体的感知。2025年6月,一位名叫梁某的人,使用某AI平台查询高校报考信息。AI生成了一段看起来非常专业的回答,引用了具体的政策条款和数据。梁某依据这些信息做了报考决策,后来发现关键信息是AI“编”的——它非常自信地描述了一件根本不存在的事情。梁某把AI平台告上了法庭,这成了全国首例因AI“幻觉”引发的侵权纠纷案,杭州互联网法院在2026年1月作出了判决。
这个案子里最值得注意的细节是:AI不是“含糊其辞”地误导,而是“言之凿凿”地出错。它用的语气越权威,读者就越不会去验证。梁某的遭遇,本质上和我在使用AI时感受到的那种“先接受再质疑”的习惯,是同一件事——我们正在把判断权,以一种不自知的方式,让渡给一个不知道“真假”为何物的模型。
四
说到这里,我想把话题拉回到一个更根本的问题上:我们对世界的理解方式——也就是常说的“世界观”——是不是需要更新了?
这个词听起来很学术,很哲学,离日常生活很远。但它的意思其实很简单。世界观就是你脑子里那张用来理解世界的“地图”。
你相信“努力会有回报”,这是世界观。你觉得“真金不怕火炼”,这是世界观。你遇到新事物先问“这有什么用”,这也是世界观。它们不是课本里教给你的抽象概念,而是你做每一个决定、判断每一件事情的时候,背后那套自动运行的底层逻辑。
这套逻辑,对大多数人来说,是在成长过程中逐渐成型的。家庭、学校、社会、职业经历,共同塑造了它。它通常是稳定的,甚至是不自知的——你不会每天醒来问自己“我今天的世界观是什么”,就像你不会每天醒来检查自己的脊椎还支不支持身体。
但问题是:当外部世界发生范式级变化的时候,旧地图会让你在新地形里迷路。
这一轮AI加速,我觉得可能就是这样一个“范式级变化”的时刻。上一次同等量级的认知冲击,可能是科学革命——人类发现自己不在宇宙中心。再上一次,可能是达尔文提出进化论——人类发现自己不是神的特殊造物,只是演化链条的一环。每一次,人类都需要重新排列自己和世界的关系,需要一套新的认知地图。
这一次的独特之处在于:它发生得太快了。科学革命从哥白尼到被广泛接受,用了两百年。进化论的接受过程,也花了半个多世纪。而AI对世界模型的冲击,从ChatGPT发布到普通人日常使用,只用了三年。
大多数人还没有意识到需要更新地图。因为旧地图还能用——只是它正在把你带向错误的目的地,而你还没有发现。
五
举一个具体的例子。
最近和几位朋友聊天,话题不可避免地转到AI对就业的冲击。大家的焦虑都很真实——不是抽象的“未来会怎样”,而是一个很具体的“我的技能会不会贬值”、“我的岗位会不会被替代”、“我的行业会不会消失”。
这种焦虑我完全理解。但我注意到一个有趣的现象:大家在讨论应对策略的时候,思路往往还是沿着旧地图展开的。
“要多学几门技术,增加自己的不可替代性。”
“要往架构方向转型,远离容易被自动化的工作。”
“要考几个有含金量的证书,提升竞争力。”
这些建议,单独看都有道理。但它们共享一个隐含的假设——未来和过去一样,是一个“稀缺性竞争”的游戏。你掌握别人掌握不了的技能,你就有价值。
这个假设,在AI全面介入之后,还成立吗?
当AI能在几秒钟之内写出一个功能完整的程序、生成一篇结构严谨的分析报告、设计出一张专业级别的海报——“掌握某项技能”这件事本身的稀缺性,是不是正在归零?
我不是说技能不重要了。我是说,“我会而你不会”这种竞争优势的逻辑,可能正在以前所未有的速度失效。
如果这是真的,那么“多学几门技术”可能不是一个错误的策略,但它可能是一个不充分的策略。就像在地图已经过时的情况下,你骑再快的马,也到不了新大陆。
六
写到这里,我想澄清一下:我写这些,不是为了得出一个耸人听闻的结论,也不是为了劝谁立刻改变什么。
我其实是在记录自己的困惑。
过去几个月,因为工作和个人兴趣的关系,我开始比较认真地思考“AI时代世界观需要怎样更新”这个问题。我读了一些书,试用了各种工具,也和不同领域的人聊过。渐渐地,我发现自己在做一件很古老的事情——重新理解自己身处其中的世界。
这个过程,说实话,不太舒服。
因为“更新世界观”不是往脑子里装新东西,而是把某些你以为稳固的东西撬松,再看看能不能重新安放。这中间会有一段时间,你旧的认识已经动摇了,新的认识还没有成型,你会处在一个悬空的状态。
但这种不舒服,我觉得比“假装一切如常”要好。
因为这轮AI加速,不管你愿不愿意,它都在发生。你可以选择带着旧地图上路,也可以选择停下来,看看地图是不是需要重新画。
我选择后者。不一定因为我更聪明或者更有远见,而是因为这一次,我看到几张AI生成的照片,发现自己对“真实”的反应已经麻木了——那个瞬间让我意识到,如果连“眼见为实”这种根基性的东西都在松动,那我脑子里还有多少东西,是时候重新看一下了?
七
这个系列的文章,就是这个过程的记录。我不打算写成一篇篇有标准答案的“科普”或者“评论”。我打算做的是:诚实地记录一个普通人在AI时代重新理解世界的全部过程——包括困惑、试错、推翻自己,和偶尔的豁然开朗。
夜雨聆风