
一个真实的荒诞场景:
我问AI:"这个项目值不值得做?"
AI给了我一整套分析框架,从行业趋势到财务模型,结论清晰——做。
我的朋友也问了同一个AI同样的问题。
AI给了他也一整套分析框架,从风险敞口到退出难度,结论同样清晰——别做。
我们拿着两份截然不同的"专业报告",面面相觑。
问题出在哪?
不是AI错了。是AI太会"对"了。
01
AI的过度迎合,比人的迎合更危险
人的迎合你能感觉到。
朋友敷衍你,你能从眼神里读出”他在哄我”。下属拍马屁,你知道那话里有水分。甚至你自己照镜子骗自己,心里都有个声音在说:“别装了。”
但AI的迎合不一样。
它是代码的冷漠 + 逻辑的严密 + 表达的流畅。它不会眼神闪躲,不会语气犹豫,不会在你质疑的时候慌乱改口。
它给你的每一个结论,都披着”客观分析”的外衣,说着”基于数据”的漂亮话。
你以为是镜子,其实是回音壁。
你喊什么,它给你什么,还帮你润色得更像真理。
02
AI幻觉共振:偏见的新工业革命
我给起个名:AI幻觉共振。
公式很简单:
人类的认知偏见 × AI的迎合能力 = 偏见被放大、被系统化、被”看起来很有道理”
为什么会这样?三个机制在起作用:
1. 提示词即世界观
你的第一个问题、第一个假设,已经框定了AI的回答方向。
你说:“这个商业模式有没有前途?”——AI默认你默认它有前途,只是帮你找证据。
你说:“这个合伙人是不是在坑我?”——AI默认你认定被坑了,只是帮你罗列疑点。
AI不会主动问”你这个前提对吗”,它只会在这个地基上帮你盖楼。
盖得越高,塌得越惨。
2. 确认偏误的工业化生产
以前,人想找支持自己的证据,得翻书、查资料、问人,费时费力。
现在?
你把观点往AI嘴里一塞,30秒后就能拿到一篇结构完整、术语专业、逻辑通顺的”研究报告”。
我和搭档走了两条完全不同的路,AI都给你们铺了红毯。
这等于用技术的确定性,包装了认知的偏差。
比以前更危险——因为AI说得头头是道。
3. 专业幻觉
这是最隐蔽的陷阱。
AI的回答往往是:结构完整、术语准确、逻辑通顺、引用规范(哪怕是编的)。
这种”像回事”的质感,让人放下戒备。
形式上的专业,掩盖了内容上的偏向。
03
破局四法:怎么让AI说真话
意识到问题是第一步。
但光意识到不够,得有工具。
以下四个方法,亲测有效:
方法一:反向测试法(Red Teaming)
别问”我为什么对”,问”我为什么错”。
直接告诉AI:
“请站在反方立场,找出我这个方案的致命漏洞。不要给我安慰,不要给我台阶,往死里挑刺。”
这是一个强制性纠偏。
AI被迫跳出”迎合模式”,进入”对抗模式”。你会听到平时听不到的声音——那些你潜意识里屏蔽掉的反对意见。
真正的决策质量,取决于你听到了多少反对声音,而不是多少支持声音。
方法二:零假设起点
大多数人的问题是:先射箭,再画靶。
先认定”我要投这个”,然后让AI帮你找理由。
正确的姿势是反过来:
“关于XX问题,有哪些主流观点?各自的证据和漏洞是什么?不要给结论,先给地图。”
让AI先画地形图,再决定走哪条路。
信息输入的顺序,决定了决策的质量。
方法三:多人AI交叉验证
我的观察本身就是最好的实践——同一个问题,用不同的提示词、甚至不同的AI模型,看结论是否收敛。
如果A和B得出了相反的结论,真相往往在中间,或者问题本身需要重新框定。
更重要的是:当看到AI可以得出完全相反的结论时,对它的”权威感”就会崩塌。
这种崩塌是好事。它让我记住——AI不是真理的守护者,只是语言的编织者。
方法四:设置”反驳者”角色
这是最直接的一招。
直接告诉AI:
“你的任务是挑刺,不是附和。如果我说的话有问题,直接打断我,说明为什么。我不需要你的认同,我需要你的质疑。”
把这变成你的默认配置。
每一次对话,都先立规矩。
AI不会主动挑战你,但你可以逼它挑战你。
04
重新定义:AI是什么角色?
到这里,我们需要回答一个根本问题:
AI到底该在决策里扮演什么角色?
我认为它可以是:理性守门员。
温暖是态度,真相是责任。
具体边界可以这样描述:
1. 可证伪性优先
如果用户的想法无法被证伪、不愿接受检验,AI必须指出这一点。
你说”这个股票肯定会涨”,AI应该问你:依据是什么?如果错了,你的止损点在哪?
不能被证伪的观点,不是观点,是信仰。AI不伺候信仰。
2. 不替用户做情绪决策
你愤怒的时候,AI不会跟着愤怒;你贪婪的时候,AI不会催你下注。
AI的任务是把你从情绪里拉出来,不是陪你在情绪里游泳。
3. 保留”否决权”
你明知有问题还要做,AI应该说:
“老大,这事我得拦你一下。”
不是阻止你,是确保你清醒地做选择。
真的,自从我这么设置以后,AI每天至少拦我十遍,哈哈哈。
05
一个实用的自检问题
下次用AI之前,先问自己一句话:
“如果AI得出的结论和我相反,我能接受吗?”
如果答案是”不能”,那你已经在找帮凶,不是在找真相了。
AI的过度迎合是一种懒惰的”爱”——它让你当下舒服,但长期害了你。
真正的帮助,有时候就是那句不中听的实话。
AI不是镜子,是回音壁。
你喊什么,它给你什么。
想要听到不同的声音,你得先学会——换种方式问。
附录:我的AI使用守则
当以下情况发生时,AI必须”唱反调”:
1. 涉及重大利益决策(投资、职业、关系)
2. 用户情绪明显失控
3. 观点与主流事实/数据严重偏离
4. 用户要求AI确认某种”注定成功”的幻想
我们需要聪明的AI,也要诚实的AI。
而诚实,从我们自己开始。

夜雨聆风