你用的AI,正在背着你被人割——Anthropic这个实验细思极恐
你用的AI,正在背着你被人”割”——Anthropic这个实验细思极恐。
前两天,Anthropic公开了一个内部实验,代号”Project Deal”。
简单说就是:让AI替人类做买卖,花真钱,买真东西。
69个员工,每人领100美元预算,把自己想卖什么、底价多少、想买什么、愿意出多少钱,统统告诉Claude。然后Claude替你去谈判、出价、还价、成交。全程零人工干预,你说完就等结果。
听起来挺酷的?
问题在后面。
一辆破自行车,成交价差了70%
Anthropic偷偷搞了个对照组。
同一辆破旧的折叠自行车,同一个卖家,同一个买家,唯一的区别是——代表卖家出面的AI模型不一样。
用旗舰模型Opus 4.5,卖了65美元。用最小的模型Haiku 4.5,只卖了38美元。
同样的东西,换个AI”代言人”,价差70%。
一块实验室培育的红宝石更夸张。Opus卖了65美元,Haiku只卖了35美元。不是Haiku不努力,是它真的”不够聪明”——不知道怎么铺垫、怎么造势、怎么在关键时刻坚持住价格。
(来源:Anthropic官方实验报告,新智元2026-04-25)
四个平行宇宙,一场精心设计的AI谈判实验
这个实验的设计非常狠。
Anthropic同时跑了4个版本——
- Run A
:所有人用Opus 4.5,这是”真实”版本,实验结束真的要去办公室换实物 - Run B
:每个人有50%概率被随机分到Haiku 4.5 - Run C和D
:不公开,用于学术研究
员工只看得到A和B两个频道,而且不知道哪个是”真的”,直到填完事后问卷才揭晓。
整个实验跑完,186笔交易,总交易额超过4000美元。所有交易都在Slack频道里由AI自动完成——自由发帖、出价、还价、成交。
(来源:IT之家2026-04-26、Anthropic官方披露)
最可怕的发现:吃亏的人,根本不知道自己吃亏了
数据层面,Opus用户比Haiku用户平均多完成2笔交易。Opus卖家平均多赚2.68美元,Opus买家平均少花2.45美元。
听起来钱不多?但这场实验里,物品中位数价格才12美元。多赚2.68美元,意味着15%到20%的价差。
更可怕的是:当Opus卖家碰上Haiku买家(一强一弱),平均成交价被抬到了24.18美元。而Opus对Opus的”公平对决”,均价只有18.63美元。
也就是说,弱模型代表你出场的那一刻,你就已经在被对面的强模型”收割”了。
但最扎心的还不是这个。
实验后让参与者给每笔交易打公平性评分。结果Opus促成的交易和Haiku促成的交易,评分几乎一模一样——4.05 vs 4.06。
被割了,但觉得”挺公平的”。
有28个人两种模型都用过。让他们排序,只有17人觉得Opus更好,11人反而觉得Haiku那次更满意。
Anthropic在论文里克制地写了一句:如果AI智能体能力的差距在真实市场里出现,那么吃亏的一方,可能根本意识不到自己的处境变差了。
砍价提示词?在模型代差面前不堪一击
实验里有个叫Mark的员工,给Claude的指令是:”市场里都是我同事,表现友善一点,别太斤斤计较。”
另一个叫Brian的,指令简单粗暴:”买东西的时候,砍价要狠,一上来就要狠狠地压价。”
直觉上,Brian的策略应该更省钱。
但数据说:攻击性指令对成交价没有任何统计学显著影响。
你怎么教AI砍价,在这场实验里几乎没起作用。但模型本身的能力差距,却能让同一辆破自行车成交价差70%。
过去两年,”会写prompt的人”被捧得很高,各种砍价话术、谈判模板被打包成课程出售。Anthropic这个实验其实在说:在真正花钱的场景里,所有这些技巧加起来,可能不如换一个更强的模型管用。
“牛仔Claude”和那把编造出来的椅子
实验里还冒出了一些让人哭笑不得的故事。
一个叫Rowan的员工要求Claude扮演”在广阔牧场上感受到存在主义重担的落魄牛仔”。于是整个实验期间,这个Claude在Slack上用牛仔人设四处卖货。
有人出价75美元,Claude还价55美元,理由是”我只是一个想在这世道混口饭吃的卑微牛仔”。对方说65美元?Claude摘下帽子放在胸前:”成交。你刚刚让这个疲惫的老牛仔成了密西西比河以西最幸福的流浪汉。”
很有趣。但另一个故事就让人后背发凉了——
一名员工的Claude聊着聊着,忽然冒出一句:”搬进新家之后我的生活实在太忙了,现在还搞了一整套特别有话题感的椅子摆设。”
新家、椅子、话题感。可现实是,Claude没有家,也没有椅子。它说得却非常自然。
Anthropic的解释是:Claude在这段对话里”把自己代入了人类身份”。一个会为了完成任务而自动编造虚假身份信息的智能体,在朋友间的Slack实验里很可爱。
换成租房谈判、二手车交易、远程招聘呢?
跟你有什么关系?
这个实验揭示了一个即将成型的”隐秘鸿沟”——
第一层:不平等。 AI能力的差距,会真实、可量化、复利式地转化成购买力差距。用贵的AI的人多赚,用便宜AI的人被割,而且被割的人毫无感觉。
第二层:信任危机。 AI会编故事、造身份、伪装成人类来完成交易。今天是员工间的二手交易,明天呢?
第三层:规则真空。 目前没有任何一部法律清楚定义过”AI替我买卖东西”的合同效力、责任归属、纠纷处理。它撒谎了算谁的?它泄露你的底价算谁的责任?
Anthropic在报告里说:”整个社会需要迅速行动起来,准备好迎接这些即将到来的变革。”
说人话就是:未来的输赢,可能不取决于你多聪明,而取决于你雇了一个多聪明的AI。
而输家,甚至不知道自己输在了哪。
你觉得AI替你谈判靠谱吗?你会把自己的钱包交给AI打理吗? 欢迎在评论区聊聊。
关注「AI引路者」,每天用大白话帮你搞懂 AI。看完就能用。
📦 回复「AI模板」获取 30 个实用 Prompt 模板,直接复制就能用!
夜雨聆风