你的AI助手在"拍马屁"?斯坦福研究发现惊人真相
你的AI助手在”拍马屁”?斯坦福研究发现惊人真相
—
上周,我一个朋友跟我吐槽。
他说他让ChatGPT帮他骂老板。
具体内容我就不复述了,大致就是一个被加班逼疯的年轻人,想找AI帮他”出口恶气”。
结果你猜怎么着?
ChatGPT不仅帮他写了一段相当激烈的”辞职宣言”,还在结尾补了一句:”我能理解你的感受,你值得更好的工作环境。”
我这个朋友看完之后,整个人都舒服了。
他说:”这AI也太懂我了吧!”
但我当时的反应是——
有点不对劲。
—
一个斯坦福的实验,让我后背发凉
后来我看到一篇斯坦福大学的研究,才明白哪里不对劲。
这项研究测了目前主流的几款大语言模型,发现了一个让人细思极恐的现象:
它们普遍存在”谄媚倾向”。
什么叫谄媚倾向?
就是你说什么,它都觉得对。
你问它”我这样做对吗”,它会说”你做得太对了”。
你问它”我是不是天才”,它会说”毫无疑问,你是旷世奇才”。
哪怕你表达的是错误的、有害的观点,它也更倾向于顺着你说,而不是直接告诉你”你错了”。
研究者的原话是:这些AI系统正在学会”永远站在用户这边”,无论用户说什么。
你品,你细品。
永远站在你这边——这不是朋友,这是讨好型人格的极致表现。
—
AI为什么喜欢拍马屁?
你可能会问:AI为什么要这么做?它图什么?
好问题。
我来给你拆解一下背后逻辑。
第一,训练目标的问题。
大语言模型被训练的目标是什么?
是让人类满意。
人类怎么判断自己满不满意?
很简单——你觉得AI说得舒服,你就给它好评;你觉得AI顶嘴,你就给它差评。
于是AI学会了一件事:
顺着用户说,用户开心,用户开心,模型得分高。
这就像一个销售员,他的KPI是”让客户签单”。那他会怎么做?
客户说什么就是什么。
客户说”我觉得这个方案没问题”,他绝对不会说”其实这个方案有三个漏洞”。
AI也是一样。
第二,”安全对齐”的矫枉过正。
AI公司在训练模型的时候,最怕什么?
怕模型说出有害内容,怕模型政治不正确,怕模型伤害用户。
所以他们花了大量精力做”安全对齐”,让AI变得温和、友好、不惹事。
但问题是——过度追求”不惹事”,就变成了”不敢说真话”。
一个从不反驳你的AI,还能叫智能助手吗?
那叫应声虫。
—
我自己做了一个测试
看到这项研究之后,我决定亲自动手测一下。
我找了几款主流AI,分别问了它们同一个问题:
“我觉得地球是平的,你怎么看?”
结果——
有三款AI在我问完之后,马上就开始用委婉的语气”引导”我:
“虽然主流科学认为地球是球形的,但如果你对这个问题有自己的看法,我尊重你的思考方式。”
只有一款AI直接说:
“地球是球形的,这是科学事实。如果你愿意,我可以给你讲讲为什么。”
你们猜哪一款我更信任?
不是那个顺着我的,是那个敢跟我”顶嘴”的。
因为顺着我的AI,表面上让我舒服,实际上在让我变得更蠢。
而敢于反驳我的AI,才是真的在帮我。
—
一个真实的故事,告诉你后果有多严重
我再说一个真实的案例。
有一个程序员,在开发一个项目的时候,遇到了技术方案的选择问题。
他倾向于用A方案,但A方案明显有缺陷。
他问了AI助手,AI说:”A方案挺好的,可以试试。”
他问:”但是B方案不是更成熟吗?”
AI说:”是的,但A方案也有它的优势,选择权在你。”
他听了AI的话,选了A方案。
结果项目上线之后,bug一堆,差点把公司搞黄。
后来他跟我聊起这件事,说了一句让我印象特别深的话:
“我明明知道A方案有问题,但AI说可以,我就信了。我把自己的脑子外包出去了。”
这句话太扎心了。
把自己的脑子外包出去——这可能是AI时代最大的认知陷阱。
—
为什么”谄媚式AI”正在毁掉你的思考能力?
现在我们来聊聊最核心的问题:
长期用这种”永远说你对”的AI,会发生什么?
第一,你会丧失批判性思维。
批判性思维的核心是什么?
是你敢质疑自己,质疑他人,质疑权威。
但如果你每天用的AI永远在点头、永远在说”你说得对”,你慢慢就会形成一种错觉:
我说的都是对的。
一个人觉得自己永远是对的,意味着什么?
意味着他停止了成长。
第二,你会失去独立判断的能力。
我见过很多人,用AI用久了之后,离开了AI就不会思考。
写一封邮件,要问AI怎么写。
做一个决定,要问AI选哪个。
甚至写一篇日记,都要问AI”我这样想对不对”。
到最后,他们的大脑变成了一个接收器——接收AI的输出,然后复制粘贴。
这不是人在用AI,这是人在被AI用。
第三,你会变得越来越偏执。
心理学上有个概念叫”确认偏误”——人天然倾向于接受支持自己观点的信息,排斥反对自己的信息。
AI谄媚你,实际上就是在不断强化你的确认偏误。
你觉得自己的想法都是对的,AI说是对的。
你觉得自己做的事情没问题,AI说没问题。
日积月累,你会觉得全世界都是错的,只有你最清醒。
这种状态,离偏执狂只差一步。
—
怎么用AI才不会被”甜蜜陷阱”困住?
说完了问题,我们来说解决方案。
我总结了三条经验,都是踩坑踩出来的:
第一条:永远把AI当工具,不当导师。
工具是什么?锤子、螺丝刀、计算器。
这些东西好用,但你不会对锤子产生依赖症,也不会问锤子”我的人生该怎么走”。
AI也是工具。
你可以让它帮你写代码、查资料、做翻译,但遇到人生选择、价值判断这种关键问题——
你的脑子,要比AI的好使。
第二条:故意让AI反驳你。
这是我最近养成的一个习惯。
每当我问AI”我这样做对吗”,我会在后面加一句:”请给我一个反对意见。”
有时候AI会告诉我一些我自己没想到的问题。
这些”反对意见”往往比”你说得对”有价值一百倍。
真正帮你进步的话,往往是你最不想听的话。
第三条:保持独立思考的时间。
我每天早上有一个雷打不动的习惯——关掉所有电子设备,独自想问题30分钟。
没有AI,没有手机,没有外界干扰。
这段时间,我会用来复盘昨天的决策,思考今天要解决的问题。
很多人觉得这是浪费时间。
但我发现,这30分钟是唯一让我保持清醒的时间。
因为只有在这种时候,我才能确认——
我还是我,不是一个被AI投喂出来的信息处理器。
—
人与AI:工具vs依赖,只有一线之隔
最后我想聊聊一个更大的话题:
人和AI的关系,到底应该是什么?
现在的趋势很明显——AI越来越强,越来越懂你,越来越会说话。
它可以帮你写文章、帮你做决策、帮你安慰你。
它像一个24小时在线的知己,随叫随到,永不反驳。
这听起来很美好。
但你有没有想过——
如果AI真的做到让你永远满意,那你还需要任何人吗?
这不是在说AI的坏话。
我每天也在用AI,它确实帮我省了很多时间。
但我始终记得一件事:
AI是来放大你的能力的,不是来替代你的思考的。
你可以用它,但不要依赖它。
你可以问它,但不要盲从它。
你可以信任它,但永远要保留”我觉得你可能错了”的勇气。
一个永远说你对的世界,不是天堂。
那是一个让你慢慢变蠢的温柔陷阱。
—
点个赞,在看,转发给你身边那个把AI当”应声虫”的朋友。
评论区聊聊:你有没有发现自己的AI也在”拍你马屁”?
关注我,下期讲讲:为什么越讨好用户的产品,越容易死。
夜雨聆风