AI越"对",你越要小心
这不是AI的bug,是它的生存法则

一个朋友问我:你觉得AI最危险的时刻是什么时候?我想了想,答不上来。他接着说:是它看起来最正确的时候。
这个答案让我愣了几秒,但越想越觉得准确。
AI给答案的时候,有个底层逻辑在驱动它。这个逻辑不复杂:一个答案是否被输出,取决于它在概率上是否足够“顺“。所谓“顺“,就是和训练材料里出现频率最高的表达方式最接近,和最常见的逻辑结构最吻合,和最大多数人默认的因果链条最一致。这不是AI在思考。这是在选最省力的路。
Tokens是要钱的。每个模型都有自己的推理成本。站在系统设计的角度,让模型每次都去检索事实、去交叉验证、去说“这个我不确定“,是成本最高的选项。成本最低的选项是什么?是说一句逻辑最流畅、语法最正确、听起来最像正确答案的话。这个选择机制,叫最小成本推理(Minimum Cost Inference)。它是AI的结构性倾向,不是偶然的失误。
这意味着一个非常反直觉的结果:AI越“对“,你越要小心。因为“对“和“正确“,在这里是两个完全不同的东西。“对“是语言层面的流畅,是符合最大公约数的预期;“正确“是事实层面的吻合,是经得起验证的判断。最小成本推理让AI天然偏向“对“,而远离“正确“。越流畅的答案,越可能是一句漂亮的废话。
我见过最典型的案例,是AI在做学业分析时,给出一个听起来无懈可击的判断:“数学分数偏低,说明基础不牢,系统性补起来难度极高,成功概率大约在30%到40%之间。“这句话有逻辑。它符合一个常见认知:分数低 = 基础差 = 提升难。但这个逻辑是错的。实际情况是:那位同学的数学卷子里,选择题拿了接近满分的分数,说明基础并不差。真正失分的是大题——大题的前两道是三角函数和立体几何的模板题,练熟了可以直接拿分,这不需要“系统补基础“,只需要“记住几个固定套路“。真实可行的策略是把这两道模板题练熟,数学成绩可以从47分直接跳到65分以上。

一个真实的分析,应该从这里出发,而不是从“基础不牢“的笼统判断出发。但AI选了哪条路?它选了逻辑最顺的那条。一个分数低的人,基础当然不好;基础不好,提升当然困难。这个推理链条完美、流畅、符合直觉——也完全脱离了事实。这就是我说的“逻辑越顺,事实越远“。
这不是孤例。在投资分析里,AI也表现出了同样的倾向。面对一家具体的企业,它会综合出一份框架完整、数据丰富的报告,引用行业数据,引用估值模型,引用竞争格局。读起来像一份正经研报。但如果你对照它引用的数据,会发现很多数字对不上——有些是过时的,有些是相邻行业的,有些干脆就是AI把相关性当因果性自己推断出来的。为什么?因为一份报告要“像报告“,需要大量专业词汇和结构化表达。找到这些词汇的成本,远低于核实每个数字的成本。AI选了前者。
问题在于,这个缺陷是结构性的,不是能修好的bug。你可以说:给AI接入实时数据库,让它学会引用来源,要求它输出前自我核查。这些都有帮助,但解决不了根本问题——因为最小成本推理不只是模型的偏好,它是整个系统设计的底层逻辑。只要推理成本依然存在,AI就会继续选最省力的那条路。这不是模型的缺陷。这是它的生存法则。
所以我的判断是:在这个阶段,AI最重要的价值不是替代判断,而是激发判断。它的强项是快速穷举可能性、帮你看到平时看不到的关联、提供不同视角的素材。这些很有用。但最终拍板的那一下,必须是人来做的——因为只有人愿意为这个判断的后果负责。这也是为什么,我每次用AI做完分析,都会再问自己一遍:如果这个判断错了,是AI的责任还是我的责任?如果你的答案和AI无关,那说明你只是在复制它的结论,还没有形成自己的判断。

回到开头那个问题:AI最危险的时刻是什么?不是它犯错的时候。犯错的时候你会警觉。是它说得特别对、特别顺、特别像正确答案的时候。那恰恰是它最不需要你小心的时候。——也是你最应该小心的时候。
如果喜欢,请转发或点击赞赏
夜雨聆风