乐于分享
好东西不私藏

AI为什么会一本正经地瞎说?

AI为什么会一本正经地瞎说?

你有没有问过AI一个问题,它给出了一个听起来非常有道理、非常自信的答案,但你一查,发现完全是编的?

书名是假的,数据是编的,甚至连人名都是凑出来的。

但它说的时候,语气比你翻书还笃定。

这个现象有个专门的术语,叫**”幻觉”(Hallucination)**。

▍AI为什么会产生”幻觉”?

先理解AI是怎么”说话”的。

大语言模型(就是ChatGPT、Claude这类AI)的工作原理,不是”查数据库找答案”,而是**”预测下一个词最可能是什么”**。

就像你填空:

“太阳从东方____出来”

你几乎不用想,就能填出”升”。AI也是这么工作的,只不过它预测的范围更大,一次可以预测一整段话。

问题在于:“听起来合理”和”实际上正确”,是两件事。

AI被训练的目标是说出流畅、合理的话,而不是说出”有来源依据的话”。当它不确定某个事实时,不会说”我不知道”,而是倾向于”拼凑出一个听起来合理的答案”。

这就是幻觉的来源。

▍幻觉最容易发生在哪些场景?

🔹 问具体的数字、日期、数据——比如”某某电影的票房是多少””某某人是哪年出生的”

🔹 问冷门知识——AI对冷门话题的训练数据少,更容易拼凑

🔹 让AI引用文献或来源——它会给你一个格式完整、看起来真实的引用,但书名、作者、页码可能全是假的

🔹 问非常新的事情——AI的知识有截止日期,日期之后的事它不知道,但不一定会告诉你”我不知道”

▍怎么减少被AI忽悠的概率?

不是说不能用AI,而是用的时候要有防范意识:

🔹 涉及数字、日期、来源的内容,必须自己核实,不要直接复制粘贴

🔹 告诉AI”如果你不确定,直接说不知道”——加了这句提示之后,幻觉概率会明显下降

🔹 让AI解释推理过程——如果它能说清楚”这个结论是怎么来的”,通常更可靠;如果它只是”直接报答案”,要多一份怀疑

🔹 重要内容用两个以上的AI交叉验证——不同AI的错误方向不一样,两个都给出相同答案,可信度会高得多

▍小结

🔹 “幻觉”是AI编造听起来合理但并不真实内容的现象

🔹 原因:AI的目标是”说得流畅合理”,而不是”保证正确”

🔹 最容易出错的场景:具体数字、冷门知识、文献引用、新近事件

🔹 应对方法:告诉它可以说不知道、核实关键信息、交叉验证

AI幻觉不是Bug,是它工作方式决定的必然现象。了解它,才能用好它。

你有没有被AI”信心满满地忽悠”过的经历?是什么事情?评论区聊聊👇

关注【鱼也要睡觉】,每天推送一篇互联网最新热点,专为新手小白打造,让你轻松读懂AI时代。