AI为什么会一本正经地瞎说?
你有没有问过AI一个问题,它给出了一个听起来非常有道理、非常自信的答案,但你一查,发现完全是编的?
书名是假的,数据是编的,甚至连人名都是凑出来的。
但它说的时候,语气比你翻书还笃定。
这个现象有个专门的术语,叫**”幻觉”(Hallucination)**。
▍AI为什么会产生”幻觉”?
先理解AI是怎么”说话”的。
大语言模型(就是ChatGPT、Claude这类AI)的工作原理,不是”查数据库找答案”,而是**”预测下一个词最可能是什么”**。
就像你填空:
“太阳从东方____出来”
你几乎不用想,就能填出”升”。AI也是这么工作的,只不过它预测的范围更大,一次可以预测一整段话。
问题在于:“听起来合理”和”实际上正确”,是两件事。
AI被训练的目标是说出流畅、合理的话,而不是说出”有来源依据的话”。当它不确定某个事实时,不会说”我不知道”,而是倾向于”拼凑出一个听起来合理的答案”。
这就是幻觉的来源。
▍幻觉最容易发生在哪些场景?
🔹 问具体的数字、日期、数据——比如”某某电影的票房是多少””某某人是哪年出生的”
🔹 问冷门知识——AI对冷门话题的训练数据少,更容易拼凑
🔹 让AI引用文献或来源——它会给你一个格式完整、看起来真实的引用,但书名、作者、页码可能全是假的
🔹 问非常新的事情——AI的知识有截止日期,日期之后的事它不知道,但不一定会告诉你”我不知道”
▍怎么减少被AI忽悠的概率?
不是说不能用AI,而是用的时候要有防范意识:
🔹 涉及数字、日期、来源的内容,必须自己核实,不要直接复制粘贴
🔹 告诉AI”如果你不确定,直接说不知道”——加了这句提示之后,幻觉概率会明显下降
🔹 让AI解释推理过程——如果它能说清楚”这个结论是怎么来的”,通常更可靠;如果它只是”直接报答案”,要多一份怀疑
🔹 重要内容用两个以上的AI交叉验证——不同AI的错误方向不一样,两个都给出相同答案,可信度会高得多
▍小结
🔹 “幻觉”是AI编造听起来合理但并不真实内容的现象
🔹 原因:AI的目标是”说得流畅合理”,而不是”保证正确”
🔹 最容易出错的场景:具体数字、冷门知识、文献引用、新近事件
🔹 应对方法:告诉它可以说不知道、核实关键信息、交叉验证
AI幻觉不是Bug,是它工作方式决定的必然现象。了解它,才能用好它。
你有没有被AI”信心满满地忽悠”过的经历?是什么事情?评论区聊聊👇
关注【鱼也要睡觉】,每天推送一篇互联网最新热点,专为新手小白打造,让你轻松读懂AI时代。
夜雨聆风