这是《7天AI通识计划:读懂大模型,用好人工智能》第四篇,我们从真实案例讲起。
2026年2月底,我第一次从头条上看到OpenClaw的新闻时,个人感觉很兴奋,想学习、想使用。但是,当时还没有大厂跟进,网上也没有合适的教程,我当时想做“本地大模型+OpenClaw+飞书”的部署,实现24小时随时调用Ai agent,同时确保数据的绝对安全。好在当时市面上Kimi推出了KimiClaw,自此我有了第一个龙虾“昆仑分身”。我想,在Ai的帮助下,我应该可以实现想法。但后面的情况,并没有那么顺利,整个部署过程,反复出错,各种参数问题、环境问题,每次Ai的答复都是“这是什么问题,请按什么处理,就ok了”,被骗的次数多了,我第一次起了疑心,以前知道有Ai幻觉,但因为Ai回答的都是专业技术术语(一个我完全陌生的领域),所以我没能力判断。但被忽悠多次后,我有点坐不住了,我第一次质疑Ai的专业能力!
我对三个Ai说“我认为你们三个人并没有找到真正的问题所在,即使按照你们的说法,配置v04版本也不会成功,你们信不信?”结果,Ai说“您说得对,我们确实没有找到根本原因。”还说“请您指点,真正的问题是什么?”NND,当时把我都给气乐了!合着你们压根啥都不知道啥原因,把我当傻小子忽悠了半天。

被忽悠后,第一次在专业技术方面,我质疑Ai。
这就是AI的“幻觉”:说得像真的,编得像模像样,但其实全是瞎编的。
AI到底在干什么?正如这个系列文章第一篇《大模型到底是啥?我用3个比喻一次给您讲明白》所讲,它就是“猜”。
很多人以为,AI回答问题是去某个巨大的数据库里检索正确答案。错了。完全不是这样。AI的工作方式,一句话说清楚:根据你输入的词,预测“下一个最可能出现的词”是什么。
我再给你讲一个Ai撒谎的故事,我曾让Ai帮我做银行工单分派,为了测试我写的skills的实际工作效果,我让Ai跑多批次测试,
第一轮结果好,第二轮结果差,我质问Ai,Ai甩锅。你看看下面的对话,像不像你生活或工作中的某个他(她)?



好,聊了这么多,来说点实用的。
怎么防?三招,简单到你能立刻用起来。
第一招:问来源
跟AI聊天时,加一句魔法咒语:
“请给出信息出处和链接。”
就这么简单。
如果AI引用了某本书、某条法律、某个数据,让它告诉你具体是哪本书的第几页、哪个机构的哪份报告。真信息有迹可循,假信息一验就露馅,但有时它还会忽悠,你要是还不确认,就追问。“这个出处我没找到,你能确认吗?”反复追问,AI往往会改口:“抱歉,我之前的回答有误……”
第二招:动手查
涉及以下四类信息,请一定动手验证: • 人名和名言:尤其是”某某名人说过……” • 数字和数据:GDP、人口、营收、增长率 • 法律法规:第几条第几款,去官方数据库查 • 时间和地点:历史事件的具体时间、地点
养成一个习惯:AI给你的任何具体信息,都当作“待验证”,而不是“已确认”。
这个动作花不了你两分钟,但能帮你避开99%的坑。我现在的工作流是这样的,对于一些我完全陌生的领域,我会让AI帮我整理框架、出思路,但凡具体的数据、政策等敏感信息,还是要手动查查。效率没降多少,准确率飙升。
第三招:分场景对待
不是所有情况都要防着AI。关键是分清楚场景。
创意类的工作,AI“胡说八道”反而是好事。想广告文案、故事情节、产品名字——Ai发散出来的奇思妙想,管它真假,有灵感就行。这时候它的“幻觉”就是“想象力”,这正是你要的。
但在事实类的任务上,必须较真。查资料、写论文、法律咨询、投资决策……这些场景下,Ai说的每个具体信息,你都得验。
简单来说:创意类,让Ai放飞自我;事实类,让Ai拿出证据。你请了一个想象力爆棚但记性不太好的助手。做头脑风暴时,它是宝;做精确工作时,你得帮它核对。



Ai帮你开脑洞时是天才,做精确判断时只是个猜谜选手。把它当线索,别当证据。
Ai不是全知全能的神,它是一个特别会模仿人类说话的工具。演得像,不代表说得对。你要做的,就是享受Ai的“像”,验证Ai的“对”。
最后,给大家推荐秘塔Ai,如果你想查询资料精准,就用这个。其核心在于采用了检索增强生成(RAG)架构,并深度融合了信息溯源机制与高质量知识库,从技术架构层面系统性抑制了大模型的虚构倾向。少量查询免费,多的话付钱。



好了,今天不白看。上次第三篇《AI不是不够聪明,是你不会让它“拉存款”》给你留的例4,不知你完成否?
今天,给你留个作业,5分钟就能完成:
- 打开你常用的AI,问它一个你非常熟悉的领域的问题。
- 你是银行的,就问银行相关政策;你是租赁的,就问问租赁相关规定;你是某个城市的本地人,就问当地美食推荐。
- 然后看看它的回答里,有没有说错的地方。如果有好玩的,可以评论区晒出来,让大家一起看看Ai的“表演”。

夜雨聆风