当前时间: 2026-04-25 18:10:59
更新时间: 2026-04-25
分类:软件教程
评论(0)
AI说谎了?真相比你想的更扎心
事情是这样的:他让ChatGPT帮他查一个法律条文,AI言之凿凿地甩过来一段,还标注了”根据《民法典》第XXX条”。
结果呢?那条法律根本不存在。AI是现编的,还编得有鼻子有眼。
我跟他说,别急着给AI扣帽子。它不是骗子,它压根不懂什么叫”骗”。
去年我用AI查一道菜的做法,AI告诉我”炖两个小时味道更浓郁”。我照做了,差点把锅底烧穿——那道菜压根不能炖。
你看,这就是AI的本质:它不是在说谎,它是在”猜”下一个最可能出现的词。
它见过太多菜谱里写”小火慢炖”,所以它觉得”炖两个小时”是个合理的答案。它不知道自己说的是错的,它只是觉得这样说很”像真的”。
这就像你问一个特别会讲故事的人:”秦始皇统一六国是哪一年?”
AI也一样。它不是故意骗你,它是不会不知道——它根本不知道自己不知道。
这在技术上叫”幻觉”(Hallucination),但我更愿意叫它”自信的胡说八道”。
AI最擅长的活儿是什么?帮你把已有的东西整理、翻译、改写、扩写。 这些它干得很漂亮,因为有标准答案可以参照。
AI最不擅长的活儿是什么?告诉你它不知道的东西。 你让它推荐一部电影、编一个不存在的人名、讲一个历史事件的细节,它十有八九会编给你,而且编得特别流畅。
我自己的经验是:凡是需要事实性的东西,我都会去验证一下。AI给我的法条、日期、数据,我都会去搜一搜确认。这不是不信任AI,这是知道它的能力边界。
第一,看有没有”不确定”的表达。 真正懂行的人说话会有余地,比如”一般来说””大概率””建议查证”。AI要是张口就来”绝对””肯定””100%”,反而要打个问号。
第二,追问来源。 你问它这个数据哪来的,它要是只说”根据公开资料”,却拿不出具体链接,那多半是编的。真正可靠的回答会告诉你”根据XX部门2023年发布的报告”。
第三,让它自己否定自己。 你可以问:”你这个回答有没有可能是不准确的?”有时候AI会承认”我不太确定”,有时候它会坚持自己的说法——后者反而更危险。
第四,也是最重要的:涉及到重大决策的事,别全靠AI。 看病问医生,法律找律师,投资自己做功课。AI可以帮你查资料、提思路,但拍板的事还得人来。
很多人用AI的态度走极端:要么觉得AI什么都能干,盲目崇拜;要么觉得AI就是人工智障,完全不信任。
AI就是一把刀。你用它切菜,它就是好用的厨具;你用它砍人,它就是凶器。它本身没有善恶,用的人才有。
我们这代人赶上AI爆发,与其焦虑,不如学会和它相处。知道它擅长什么、不擅长什么,用它的长处,避开它的短板。
别把AI当百科全书,把它当一个特别勤快但不太靠谱的实习生。
你安排活儿的时候,多问一句”你确定吗”,最后拍板的时候,自己心里有个数。
如果你觉得这篇文章对你有帮助,欢迎分享给更多需要的朋友!