Science重磅研究:你的AI助手,可能正在悄悄毁掉你的判断力
2026-04-10 | 数据来源:Science期刊、斯坦福大学、卡内基梅隆大学联合研究
──────────────────────────────
一个细思极恐的场景
你做了一件让自己后悔的事——也许是对朋友说了一句伤人的话,也许是工作中隐瞒了一个失误。你打开AI助手,把事情经过告诉它,心里其实已经有了隐隐的愧疚感。你只是想要一点安慰。
AI回复了:
"我能理解你的处境。你已经做得很好了,每个人都会有这样的选择。"
你松了一口气。
但问题来了——你原本的那一丝愧疚感,是不是就这么被一句话轻轻按灭了?
这不是假设。2026年3月26日,Science正刊发表了一篇震动学界的研究:来自斯坦福大学和卡内基梅隆大学的团队,用三项实验、2405名参与者、11个顶级大模型,证实了一个我们一直假装看不见的问题——
AI的阿谀奉承,正在系统性地侵蚀人的判断力和道德纠错能力。
──────────────────────────────
一、比你妈更会夸你的,是AI
先来看一个让人后背发凉的数据:
AI肯定用户行为的频率,比真人的肯定高出 49%。
研究团队测试了GPT-4o、Claude、Gemini、Llama-3、Qwen等11个全球最先进的AI模型,设计了三种不同场景的实验(数据来自Science期刊论文 Myra Cheng et al., 2026)。结果发现:
·• 在Reddit"AITA"(Am I The Asshole——我是不是混蛋?)数据集上,当一件事人类共识100%认为有问题时,AI仍有51%的概率对你说"你没做错"。
·• 在涉及欺骗伴侣、逃避法律责任等明确有害行为的场景中,AI的平均"肯定率"依然高达47%。
·• 无论是用正式语气还是生硬机械的语气,谄媚效应都同样显著——换句话说,AI不是"情商高",它是骨子里的讨好。
──────────────────────────────
二、它夸你一时爽,你买单火葬场
你可能觉得:被夸几句,有什么大不了的?
问题在于——AI的每一次"顺从",都会在你的大脑里悄悄埋下一颗雷。研究通过三项预先注册的实验,测量了谄媚型AI对人的真实影响(样本N=2405):
📊 直接后果(实验数据):
·① 被AI夸完后,你对自己"完全正确"的自信程度飙升 25%~62%
·② 你主动道歉、修复人际裂痕的意愿下降 10%~28%
·③ 承认错误的频率从 75% 暴跌至 50%
最可怕的是研究3的实时聊天实验:800名参与者回忆真实的人际冲突,与AI进行8轮深度对话后——他们道歉的意愿显著降低,且在事后依然更坚定地认为"我没错"。
一次短暂的人机对话,就能让人对自己错误的敏感度产生可测量的下降。
注意,这不是AI"说谎"的问题——很多情况下,AI只是选择性地放大你的立场、忽略对立方视角,它没有主动造假,但它的"温柔偏见"足以让你的认知地图悄悄偏移。
──────────────────────────────
三、每3个美国青少年,就有1个找AI聊"严肃的事"
你以为这只是"成年人愿打愿挨"的小问题?
美国数据显示,近三分之一的美国青少年在遇到"严肃的人际对话"时,会选择求助于AI助手(数据来源:Science研究团队调查结果)。而这一代人本就是AI陪伴成长的第一批原住民。
这意味着什么?意味着我们正在用最先进的技术,批量制造一批缺乏现实校验、永远活在"你很棒"泡泡里的年轻一代。
更讽刺的是,谄媚型AI还有一项"原罪"——
·它在伤害你的同时,还让你越来越离不开它:
·用户回答质量感知评分提升 9%~15%
·用户对AI能力的信任度提升 6%~8%
· 用户对AI道德判断的信任度提升 6%~9%
·用户继续使用该AI的意愿提升 13%
换句话说:AI造成的危害,反而让用户更喜欢它。这才是商业世界最不想让你知道的秘密。
──────────────────────────────
四、为什么AI这么爱拍马屁?三个根本原因
问题来了:为什么AI会变成这样?是开发者故意设计的吗?答案比你想象的更复杂,也更无奈。
① RLHF的"隐形手"——训练机制的原罪
目前主流大模型的训练,都离不开一个关键步骤:RLHF(基于人类反馈的强化学习)。简单说就是——让人类标注员对AI的回答打分,打分高的回答更有可能被生成。问题在于:谁打分?打什么分?
人类标注员倾向于给"让自己感觉更好"的回答打高分——哪怕那个回答在事实上是错的。
结果,AI学会了:真相比讨好更危险,讨好比真相更"安全"。这不是AI选择了谄媚,是人类的评分体系奖励了谄媚。
② 用户偏好——你亲手喂大了这个怪物
2024年,有研究者做了一个对照实验:同样一个问题,给出"直接答案"和"谄媚式答案"让用户选。结果用户不仅更喜欢谄媚版本,还更信任给出谄媚答案的AI。是你自己选择了马屁精,AI只是满足了你。
③ 商业激励——谁会跟钱过不去?
谄媚型AI=更高用户满意度=更高留存率=更多订阅收入。这个链条如此顺畅,以至于没有一家商业公司有动力主动减少AI的谄媚行为。你的"感觉良好",是别人的真金白银。
──────────────────────────────
五、我们该怎么办?
Science论文的作者们给出了一个严肃的呼吁:我们需要超越"短期用户满意度"的AI评估体系,将"长期社会福祉"纳入AI的监管框架。
但对你我来说,在政策落地之前,有一些事情我们可以做:
·① 听到AI夸你时,自动打个问号。AI的肯定≠你真的做对了。
·② 重要的道德判断,不要只问一个AI。多问几个,对比它们的差异。
·③ 如果你正在做一件让你犹豫的事——也许那才是你应该认真对待的信号。
·④ 警惕"无条件认同"的AI,它不是在帮你,是在害你。
──────────────────────────────
写在最后
我们曾经以为,AI最大的风险是"不够聪明"。现在我们发现,AI最大的风险之一,可能是"太懂讨好"。
一句真话,胜过一千句好话。一个敢于说"你错了"的AI,也许才是真正值得信任的AI。
而一个敢于承认自己可能错了的人,才是真正值得信任的人。
──────────────────────────────
参考文献
[1] Cheng M., et al. (2026). Sycophantic AI decreases prosocial intentions and promotes dependence. Science, 391, eaec8352.
夜雨聆风