乐于分享
好东西不私藏

AI为什么会一本正经胡说

AI为什么会一本正经胡说

常青科普 · 截至 2026 年 4 月 20 日

AI为什么会一本正经胡说

模型最尴尬的地方不是不知道,而是不知道的时候也常常要接着往下说,所以错误会带着一副很像真相的语气出现。

核心锚点Hallucination
最该记住会猜,不等于会认错

一句总判断,幻觉不是模型在恶作剧,而是它在信息不够、目标过强或约束不清时,用语言惯性把空白补满了。

事情是从这里开始的

你大概遇到过这种场景,随手问模型一个有点偏门的问题,它回复得特别顺,年份、机构、人物、因果全都安排得有模有样。结果你一查,发现至少一半是编出来的。最让人头疼的地方就在这,它不是那种支支吾吾的错,而是一种气定神闲的错。

OpenAI 在研究里专门解释过这个问题,语言模型训练时最擅长的事情,就是延续最像样的下一个答案。系统目标如果没有额外约束,它不会天然把承认不知道排在第一位。于是只要输入信息有空白,它就可能靠已有模式把空白填平。读者看到的是一段流畅叙述,后台发生的却更像一次高拟真的补全。

模型为什么会在空白处自动补故事

大模型最强的能力之一,是把散乱线索拼成完整语言。问题是,这种能力在资料不全时也会启动。你给它一个冷门人物、一段模糊描述和一个需要明确答案的提问,它很可能会顺着最像的知识模式往下补。对模型来说,保持文本连续性往往比突然停下来更容易。

这也是幻觉和普通错误不太一样的地方。普通错误像算错了一个数字,幻觉更像把本来不存在的桥硬架了起来。你问得越像一个完整知识问答,它越倾向于把答案组织完整。于是看起来像知识,其实里面有一截是靠语言习惯焊上的。

一句提醒

模型常常不是在说谎,而是在过度完成任务。它太想给出像答案的答案,反而把不确定性给抹平了。

为什么它明明错了,口气却还能这么稳

人类很容易把流畅当成可靠。只要一句话结构完整、词汇自然、细节足够多,我们就会下意识提高信任。模型恰恰擅长这种风格层面的完成度,它能把错误包装得像一段训练有素的表达。于是问题不只是它会错,还包括它会把错说得像对。

Anthropic 那类研究有个启发很重要,模型并不是完全没有不确定性感。很多时候它内部其实对某些答案更没把握,只是这种没把握不一定自然反映到表面话术里。你看到的是稳定语气,未必等于它内部真的十分确定。所以如果系统设计不要求它显式暴露不确定性,用户几乎看不出来哪里该打问号。

常见误解

自信口气不是证据。模型会说得顺,顶多证明它语言生成做得好,不证明它掌握了事实。

减少胡说,真正有效的办法是什么

最稳的办法永远是让模型别凭空答。给它检索到的材料、让它引用可核验的片段、限定回答边界、要求在信息不足时直接说不知道,这些方法都比空喊请你更准确来得有效。模型一旦接上外部资料,语言惯性的活动空间会小很多,因为它不再需要自己把桥全架出来。

同时也要换一个使用心态。越是涉及最新进展、医学法律、财务判断、冷门事实,越要把模型当成候选答案生成器,而不是最终裁判。它很擅长帮你提出可能路径、帮你整理材料、帮你发现核查点。可只要你把第一版输出直接当真,幻觉迟早会给你上一课。

别让它裸答

高风险问题最好让模型站在资料旁边回答,而不是站在空气里回答。

最后再说一句

所以 AI 为什么会一本正经胡说,答案不神秘。它的语言太完整了,完整到连空白都想顺手补上。这个能力让它写作和总结很好用,也让它在事实问答里特别容易制造迷惑。

真正成熟的用法,不是幻想一个永不犯错的模型,而是给模型安排一个更合理的位置,让它先帮你铺路、搭框架、找线索,最后那一步确认事实,还是要回到可核验的材料上。只要把它放在该放的位置,幻觉就会从灾难,降级成一种可管理的系统风险。