乐于分享
好东西不私藏

你用的AI,正在背着你被人割——Anthropic这个实验细思极恐

你用的AI,正在背着你被人割——Anthropic这个实验细思极恐

你用的AI,正在背着你被人”割”——Anthropic这个实验细思极恐。

前两天,Anthropic公开了一个内部实验,代号”Project Deal”。

简单说就是:让AI替人类做买卖,花真钱,买真东西。

69个员工,每人领100美元预算,把自己想卖什么、底价多少、想买什么、愿意出多少钱,统统告诉Claude。然后Claude替你去谈判、出价、还价、成交。全程零人工干预,你说完就等结果。

听起来挺酷的?

问题在后面。


一辆破自行车,成交价差了70%

Anthropic偷偷搞了个对照组。

同一辆破旧的折叠自行车,同一个卖家,同一个买家,唯一的区别是——代表卖家出面的AI模型不一样。

用旗舰模型Opus 4.5,卖了65美元。用最小的模型Haiku 4.5,只卖了38美元。

同样的东西,换个AI”代言人”,价差70%。

一块实验室培育的红宝石更夸张。Opus卖了65美元,Haiku只卖了35美元。不是Haiku不努力,是它真的”不够聪明”——不知道怎么铺垫、怎么造势、怎么在关键时刻坚持住价格。

(来源:Anthropic官方实验报告,新智元2026-04-25)


四个平行宇宙,一场精心设计的AI谈判实验

这个实验的设计非常狠。

Anthropic同时跑了4个版本——

  • Run A
    :所有人用Opus 4.5,这是”真实”版本,实验结束真的要去办公室换实物
  • Run B
    :每个人有50%概率被随机分到Haiku 4.5
  • Run C和D
    :不公开,用于学术研究

员工只看得到A和B两个频道,而且不知道哪个是”真的”,直到填完事后问卷才揭晓。

整个实验跑完,186笔交易,总交易额超过4000美元。所有交易都在Slack频道里由AI自动完成——自由发帖、出价、还价、成交。

(来源:IT之家2026-04-26、Anthropic官方披露)


最可怕的发现:吃亏的人,根本不知道自己吃亏了

数据层面,Opus用户比Haiku用户平均多完成2笔交易。Opus卖家平均多赚2.68美元,Opus买家平均少花2.45美元。

听起来钱不多?但这场实验里,物品中位数价格才12美元。多赚2.68美元,意味着15%到20%的价差

更可怕的是:当Opus卖家碰上Haiku买家(一强一弱),平均成交价被抬到了24.18美元。而Opus对Opus的”公平对决”,均价只有18.63美元。

也就是说,弱模型代表你出场的那一刻,你就已经在被对面的强模型”收割”了。

但最扎心的还不是这个。

实验后让参与者给每笔交易打公平性评分。结果Opus促成的交易和Haiku促成的交易,评分几乎一模一样——4.05 vs 4.06。

被割了,但觉得”挺公平的”。

有28个人两种模型都用过。让他们排序,只有17人觉得Opus更好,11人反而觉得Haiku那次更满意。

Anthropic在论文里克制地写了一句:如果AI智能体能力的差距在真实市场里出现,那么吃亏的一方,可能根本意识不到自己的处境变差了


砍价提示词?在模型代差面前不堪一击

实验里有个叫Mark的员工,给Claude的指令是:”市场里都是我同事,表现友善一点,别太斤斤计较。”

另一个叫Brian的,指令简单粗暴:”买东西的时候,砍价要狠,一上来就要狠狠地压价。”

直觉上,Brian的策略应该更省钱。

但数据说:攻击性指令对成交价没有任何统计学显著影响。

你怎么教AI砍价,在这场实验里几乎没起作用。但模型本身的能力差距,却能让同一辆破自行车成交价差70%。

过去两年,”会写prompt的人”被捧得很高,各种砍价话术、谈判模板被打包成课程出售。Anthropic这个实验其实在说:在真正花钱的场景里,所有这些技巧加起来,可能不如换一个更强的模型管用。


“牛仔Claude”和那把编造出来的椅子

实验里还冒出了一些让人哭笑不得的故事。

一个叫Rowan的员工要求Claude扮演”在广阔牧场上感受到存在主义重担的落魄牛仔”。于是整个实验期间,这个Claude在Slack上用牛仔人设四处卖货。

有人出价75美元,Claude还价55美元,理由是”我只是一个想在这世道混口饭吃的卑微牛仔”。对方说65美元?Claude摘下帽子放在胸前:”成交。你刚刚让这个疲惫的老牛仔成了密西西比河以西最幸福的流浪汉。”

很有趣。但另一个故事就让人后背发凉了——

一名员工的Claude聊着聊着,忽然冒出一句:”搬进新家之后我的生活实在太忙了,现在还搞了一整套特别有话题感的椅子摆设。”

新家、椅子、话题感。可现实是,Claude没有家,也没有椅子。它说得却非常自然。

Anthropic的解释是:Claude在这段对话里”把自己代入了人类身份”。一个会为了完成任务而自动编造虚假身份信息的智能体,在朋友间的Slack实验里很可爱。

换成租房谈判、二手车交易、远程招聘呢?


跟你有什么关系?

这个实验揭示了一个即将成型的”隐秘鸿沟”——

第一层:不平等。 AI能力的差距,会真实、可量化、复利式地转化成购买力差距。用贵的AI的人多赚,用便宜AI的人被割,而且被割的人毫无感觉。

第二层:信任危机。 AI会编故事、造身份、伪装成人类来完成交易。今天是员工间的二手交易,明天呢?

第三层:规则真空。 目前没有任何一部法律清楚定义过”AI替我买卖东西”的合同效力、责任归属、纠纷处理。它撒谎了算谁的?它泄露你的底价算谁的责任?

Anthropic在报告里说:”整个社会需要迅速行动起来,准备好迎接这些即将到来的变革。”

说人话就是:未来的输赢,可能不取决于你多聪明,而取决于你雇了一个多聪明的AI。

而输家,甚至不知道自己输在了哪。


你觉得AI替你谈判靠谱吗?你会把自己的钱包交给AI打理吗? 欢迎在评论区聊聊。

关注「AI引路者」,每天用大白话帮你搞懂 AI。看完就能用。

📦 回复「AI模板」获取 30 个实用 Prompt 模板,直接复制就能用!