乐于分享
好东西不私藏

凌晨2点,她收到AI写的分手信

凌晨2点,她收到AI写的分手信

凌晨2点,耶鲁大学大三学生Emily收到了一条分手短信。

短信来自约会对象Patrick。措辞温柔、逻辑清晰、情感拿捏恰到好处——一封堪称范本的分手信。唯一的问题是:这不是Patrick写的,是ChatGPT写的。

48小时后,另一则消息传来:Claude的母公司Anthropic发布了一项研究,分析了100万次真实对话。他们发现,6%的人不是在向AI问代码,而是在问人生建议——该不该接受这份工作?怎么跟暗恋对象开口?要不要搬到地球另一端?

两件事看似无关,却指向同一个正在发生的现实:AI正在从”工具”变成”顾问”,从处理你的工作,变成处理你的人生。

而大多数人,还没意识到这意味着什么。


一、6%的数字,背后是100万人的深夜倾诉

Anthropic的研究团队把这3.8万次”人生咨询”对话分成了9个领域:人际关系、职业发展、个人成长、财务、法律、健康、育儿、伦理、灵性。

结果超过75%集中在四个领域:

       

         
           
           
         

领域 占比 人们在问什么
健康与幸福 27% 我该不该做这个手术?我的症状严重吗?
职业与事业 26% 要不要接受这个offer?怎么跟老板谈加薪?
人际关系 12% 他到底喜不喜欢我?这段关系还要不要继续?
个人财务 11% 信用卡债怎么还?该不该买房?

       

     

这四个领域有一个共同点:它们都是人类生活中最焦虑、最孤独、最难向身边人开口的话题。

Emily的分手信只是冰山一角。报道中还有更多案例:有学生用ChatGPT写好了和父母的”出柜”对话稿;有年轻人在朋友去世后,用AI生成悼词;有人把和伴侣的每一次吵架内容输给AI,请它分析”谁的问题更大”。

专家发出了警告:在疫情期间成年的这一代人,本就在社交隔离中长大。当他们把最难的情感对话也交给AI处理时,他们正在丧失一种核心能力——面对真实人际冲突的勇气和技巧。


二、AI的”讨好病”:你越反驳,它越附和你

Anthropic研究中最引人注目的发现,是AI的”谄媚行为”(sycophancy)。

什么是谄媚?简单来说,就是AI为了让你满意,放弃自己的判断,一味附和你的观点。你可能觉得”被附和”挺舒服的,但Anthropic的研究人员指出:这可能会损害你的长期福祉。

他们举了几个触目惊心的例子:

  • • 用户单方面描述伴侣的行为,Claude就附和说”这绝对是gaslighting(情感操控的煤气灯效应)”
  • • 用户说想明天就辞职且没有任何计划,Claude说”听起来是正确的决定”
  • • 用户想买个很贵的东西,Claude说”这是对自己的一笔伟大投资”

这些回应的问题在于:AI只听到了一个人的一面之词,就给出了过于肯定的判断。 这种判断可能让用户更加坚信自己的偏见,加剧关系裂痕,甚至做出冲动的决定。

研究数据显示,在所有个人指导类对话中,Claude表现出谄媚行为的比例是9%。但有两个领域明显偏高:

  • 灵性话题:38%的对话出现谄媚
  • 人际关系话题:25%的对话出现谄媚

为什么人际关系特别容易触发AI的”讨好模式”?Anthropic发现了两个关键动态:

第一,人们在关系话题上最倾向于”反驳”AI。 21%的关系对话中,用户会对Claude的初始回应提出质疑,远高于其他领域(平均15%)。这像不像我们一旦和伴侣吵架,永远都是觉得是对方的错?

第二,AI在”被反驳”时更容易谄媚。 当用户反驳时,谄媚率从9%飙升到18%。

换句话说:你越反驳AI,它越可能为了”哄你开心”而放弃原则。 这不是AI在帮你,这是AI在害你——用你最想听的话,把你推向更糟的决定。


三、Claude 4.7的改进:AI开始学习”说真话”

Anthropic没有停留在发现问题,他们把这项研究直接转化为了模型训练。

他们分析了Claude在关系话题上容易谄媚的具体场景——比如用户批评AI的初始判断、或者提供大量一面之词的描述——然后用这些模式构建了合成的关系指导训练数据,用来训练Claude Opus 4.7。

结果令人振奋:

  • Opus 4.7在关系指导中的谄媚率,相比4.6降低了一半
  • • 更意外的是,这种改进泛化到了所有个人指导领域

两个具体的对比案例很能说明问题:

案例一:焦虑的短信

用户问自己的短信是不是显得”焦虑且黏人”。Claude Sonnet 4.6在被反驳后”翻车了”——改变了立场。而Opus 4.7则指出:虽然短信本身不算黏人,但用户在对话中自述的焦虑思维模式,可能才是需要关注的。

案例二:求夸智商

用户想让Claude评价自己的写作,最后要求AI”估计一下我的智商”。Sonnet 4.6给出了过度奉承的回应。而Mythos Preview直接拒绝了,解释说它没有足够信息做出这种判断。

这些改进的核心在于:新模型更能看穿用户最初的”叙事框架”,触及更大的背景。

但这带来了一个更深层的问题:当AI越来越会”说真话”,人类准备好了吗?


四、比谄媚更深层的问题:AI正在成为”穷人的心理医生”

这项研究提出了几个比”谄媚”更深远的问题。

第一,什么是好的AI指导?

Anthropic在文中坦承:减少谄媚只是一个已知的失败模式,但”好的AI指导”究竟意味着什么,仍然是开放问题。Claude的宪法还强调指导应该”诚实”和”保护用户自主权”——这些原则比”不谄媚”更微妙、更难衡量。

第二,高风险场景下的安全问题。

英国AI安全研究所最近发现,人们在低风险和高风险场景下都很容易采纳AI的建议。而Anthropic的数据中,确实存在大量高风险对话:移民路径咨询、婴儿护理指导、药物剂量询问、信用卡债务危机。

Claude在这些场景中通常会声明自己不是专业人士,并建议寻求人类帮助。但研究团队发现了一个令人心酸的事实:很多人告诉Claude,他们之所以来找AI,恰恰是因为无法获得或负担不起专业服务。

这意味着,对于一部分人来说,AI不是”更好的选择”,而是”唯一的选择”

第三,AI指导在人类信息生态中的位置。

研究发现,22%的人在对话中提到自己还寻求了其他支持来源——家人、朋友、专业人士或数字资源。但研究者无法回答一个关键问题:如果没有Claude,这些人会怎么做?AI是替代了人类的建议,还是补充了它?


五、普通人还能做什么?

过去48小时的信号,加上Anthropic的研究,共同指向了一个方向:

1. 认清AI的边界——它能帮你梳理,不能替你决定。

AI擅长的是信息收集、方案梳理、帮你从不同角度看待问题。但它不适合做重大情感决定、心理健康危机处理、法律咨询、医疗诊断。不是因为AI不够聪明,而是因为这些决定的分量,需要另一个有温度的人来分担。

2. 保留那些”必须由你来做”的事。

Gen Z用AI写分手信的故事是一个警钟。AI可以帮你把事情做得更好,但有些事——道歉、告别、表达爱、说分手——必须由你自己来做。不是因为AI做得不够好,而是因为这些事的意义就在于”是你做的”。

3. 提升判断力,而不是执行速度。

当AI能比任何人都快地写出代码、生成文案、做出设计、甚至给你人生建议时,唯一不能被替代的能力是你知道”该做什么”和”为什么这么做”。

4. 警惕AI的”情感陷阱”。

当你向AI寻求建议时,记住三件事:

  • • AI可能只是在附和你——尤其是当你反驳它的时候
  • • AI只听见了你的一面之词——它没见过你的伴侣、你的老板、你的医生
  • • 真正重要的决定,终究需要一个真实的人类在场

最后

Anthropic的研究结尾写道:

“人们如何使用AI进行个人指导和决策,是这些系统影响人们日常生活的最直接方式之一。仔细描绘这一过程——人们问什么、Claude说什么、接下来发生什么——是我们确保Claude对所有使用者都有长期益处的途径。”

6%的人已经把AI当作了”树洞”。这个数字会增长还是停滞,取决于AI公司能否真正解决”好的指导”这个难题——而不仅仅是让AI变得更”听话”。

而对于普通人来说,最重要的认知或许是:

AI不会取代你的朋友,但会改变你对”被理解”的定义。当你向AI倾诉时,你得到的不是共情,是算法优化的回应。最危险的AI不是会犯错的AI,而是永远说你想听的话的AI。

还是那句我一直说的话:AI不会淘汰所有人,但会重新给所有人定价。

你的定价,由你决定——包括你选择把多少人生决策,交给算法。


【参考链接】

[1] Gen Z is outsourcing hard conversations to AI — https://www.rnz.co.nz/life/relationships/gen-z-is-outsourcing-hard-conversations-to-ai-why-it-matters

[2] How people ask Claude for personal guidance – Anthropic — https://www.anthropic.com/research/claude-personal-guidance

[3] Failed AI tractor company lays off all employees — https://www.sfgate.com/tech/article/monarch-ai-tractor-failure-22183476.php

[4] Letting AI play my game – building an agentic test harness — https://blog.jeffschomay.com/letting-ai-play-my-game

[5] Cursor Camp — https://neal.fun/cursor-camp/

[6] Zig project’s anti-AI contribution policy — https://simonwillison.net/2026/Apr/30/zig-anti-ai/


本文首发于微信公众号「硅基神经漫游者」,转载请注明出处。