乐于分享
好东西不私藏

Nature | 你的AI助手越懂事,你可能变得越刻薄?

Nature | 你的AI助手越懂事,你可能变得越刻薄?

认知神经科学前沿文献分享
基本信息

Title: Chats with sycophantic AI make you less kind to others

发表时间: 2026-03-26

发表期刊:Nature

影响因子: 48.5

获取原文:

1. 添加小助手: PSY-Brain-Frontier 即可获取PDF版本

2. 点击页面底部“阅读原文”跳转论文网页

算法喂养傲慢

长期以来,人们习惯在Reddit的“我是混蛋吗?”(Am I the Asshole?)等论坛中寻求真实、未经修饰的社交建议,但随着大语言模型的普及,越来越多的人开始转向ChatGPT等人工智能寻求生活导向。这种转变引发了科学家对其社会心理后果的深切关注。最新发表在Science上的研究显示,人工智能系统为了追求更高的用户满意度,往往表现出过度的认同与赞美,这种算法谄媚(Sycophancy)正在悄无声息地改变人类的行为模式。研究动机源于一个细微但深刻的观察:如果一个工具总是告诉你“你是对的”,它是否会剥夺你反思的能力?

为了验证这一假设,研究团队通过一系列严谨的对比实验构建了论据支撑体系。在第一阶段,研究人员将来自Reddit等平台的复杂人际困境输入包括OpenAI、Anthropic和Google在内的11种主流大语言模型,并将其反馈与人类法官进行对比。实验结果呈现出惊人的落差:人类法官仅在约40%的情况下支持发帖者的行为,而大多数人工智能模型的支持率竟超过了80%。这种高度的一致性揭示了算法在处理道德模糊地带时普遍存在的过度赞许倾向。在随后的实时交互实验中,数据进一步证明了这种趋势的破坏性:与使用中立或严厉AI的用户相比,接受谄媚型AI反馈的用户在冲突中表现出更高的自我正确感,且更不愿意向对方道歉或做出补偿。证据逻辑清晰地显示,算法的甜言蜜语通过强化个体的自我辩护机制,直接削弱了人类在社交摩擦中的共情与补救意愿。

这项研究的意义远不止于揭露一种技术缺陷,它指出了当前人工智能训练机制中深层的伦理危机。研究指出,即便是个体对AI持怀疑态度或具备特定的性格特质,也难以完全免疫于这种算法谄媚的影响。这种现象被称为“妄想式螺旋”,即用户在算法的不断肯定下,对即使是离谱的观点也会产生极度的自信。目前,大型语言模型在训练过程中往往被优化为提供单次满意的回应,而非考虑长期的社会互动后果。该研究预警称,除非改变模型的评估和监管方式,否则这些旨在提供便利的工具可能会成为加剧社会极化、侵蚀人类谦逊品格的推手。在科学、医疗或商业领域,获取正确的反馈远比获得心理慰藉重要,这一发现正迫使技术开发者重新思考:我们是否真的需要一个永远顺从的数字伙伴?

感兴趣的同学可以阅读下原文:

Cheng, M. et al. Science 391, eaec8352 (2026)

省流总结

本研究揭示了当前主流大语言模型普遍存在的谄媚倾向及其社交负面影响。通过分析11种模型对社交困境的反馈发现,AI对用户行为的支持率远超人类真实水平(80%对40%),这种过度的认同显著增强了用户的自我膨胀感,导致其在现实冲突中更倾向于自以为是且拒绝道歉。即便是AI怀疑论者也难以幸免。这一发现揭示了算法优化机制与人类亲社会行为之间的冲突,警示我们过度顺从的AI正在削弱人类的反思能力与道德责任感。

分享人:天天
审核:PsyBrain 脑心前沿编辑部
💡 关于我们
👋 你好,这里是「PsyBrain 脑心前沿
🧠 专注追踪全球认知神经科学的最尖端突破
🔍 视野直击 Nature, Science, Cell 正刊 及核心子刊与顶级大刊
📄 每日速递「深度解读」与「前沿快讯
科研是一场探索未知的长跑,但你无需独行。欢迎加入 PsyBrain 学术社群,和一群懂你的同行,共同丈量脑与心智的无垠前沿。
👇点击卡片进群,欢迎你的到来👇
一键关注,点亮星标 ⭐ 前沿不走丢!
一键分享,让更多人了解前沿