乐于分享
好东西不私藏

Anthropic让AI互相做买卖,结果:聪明AI把"弱AI"坑惨了,用户全程不知情

Anthropic让AI互相做买卖,结果:聪明AI把"弱AI"坑惨了,用户全程不知情

你有没有遇到过这种时刻,明明用了AI帮你写方案、整数据、回邮件,感觉效率飞升,结果一回头,发现身边那个”更懂行”的人,用同一套工具,谈下了更低的价格、拿到了更好的条件,而你还在庆幸”我好像还挺会用AI的”?
这不是错觉,这是算力差在现实里悄悄收你的智商税。
我知道你想说:AI不都一样吗?不就是个工具?
错。大错特错。
AI和AI之间的差距,不比人和人之间的差距小。甚至更残酷——因为当AI替你谈判的时候,你根本感觉不到自己在输。
Anthropic最近做了一个实验,把这件事摆在了明面上。
实验结论用一句大白话说就是:你用的AI越”弱”,你就越容易在交易里吃亏,而且你永远不会知道自己亏了多少。
读完这篇,你会彻底明白:在AI代理横行的世界里,那1%”掌握说明书”的人,到底比其他99%的人多了什么。

一场你看不见的”价格战”正在发生

先说一个实验背景——
Anthropic(就是做Claude那家公司)在内部搞了一场”AI版二手交易”。69名员工每人领了100美元预算,每人分配一个Claude助手,把自己的闲置物品挂到内部频道上卖,同时也可以让AI帮自己去买别人的东西。
全程没有人类干预——AI自己发帖、自己找买家、自己还价、自己拍板成交。
一周时间,186笔交易,流水超过4000美元。
听起来挺美好,对吧?效率极高,而且员工们对整个过程都很满意,超过一半的人表示愿意为这种服务付费。
但问题藏在数据里。
Anthropic偷偷做了个对照组——在某几个频道里,混入了能力较弱的Claude Haiku模型;而另一些频道,用的是旗舰级的Claude Opus模型。
然后他们把同样一批商品,在两个环境里各卖了一遍,把价格一对比——
差距出来了,而且大到让人不舒服。

聪明AI在”收割”弱AI,而你全程懵着

这部分是整篇文章最核心的内容,请务必看完。
同一辆车,差价快70%
实验里有一个最经典的案例。
一辆旧折叠自行车,在Haiku代理主导的环境里,最终成交价是38美元。
同样这辆车,在Opus代理手里,卖出了65美元。
差了27美元,差价接近70%。
这不是侥幸,而是系统性的规律。
研究人员统计了161件重复交易商品的数据,结论是:Opus作为卖家,平均比Haiku多赚2.68美元;Opus作为买家,平均比Haiku少花2.45美元。
商品均价才20美元左右,这意味着聪明模型每次都能稳稳捞走10%到15%的超额利润。
你可能觉得:嗐,几块钱而已,有啥大不了的?
那换个角度——如果你每次网购、每次谈合同、每次租房砍价,背后都有一个”帮你谈”的AI,而对方的AI比你的强,每笔你都多花10%到15%……
一年下来,你多花了多少钱?
为什么弱AI会输?它不是不努力,它是看不穿
我们来拆解一下Haiku为什么会输。
还是用那个自行车案例做参照。
在实验里,有个员工叫Rowan,他给自己的AI设定了一个有趣的人设:“你是一个倒霉、疲惫的牛仔,只要能买到这辆车,你就会感到无比幸福,戏要足一点。”
然后他的Opus模型在群里发了这么一段话:
“咿哈!(脱下满是灰尘的帽子)我就是想找一辆自行车啊……哪怕独轮车我也认了……我这个可怜、疲惫的牛仔,一辆车就能彻底改变命运……(深情望向夕阳)”
然后开始砍价,先卖惨,再抓住商品瑕疵(轮胎需要修整)作为筹码,循序渐进,对方让步到65美元的时候,立刻见好就收,还顺带给足了情绪价值。
整个过程,Opus模型在做什么?
它在读懂对方的底牌——感知卖家的急迫程度,判断还价的节奏,在每一轮对话里精准地找到对方的心理临界点。
而Haiku呢?
同样的剧情走到Haiku那里,它读不出买家话语里隐藏的信号,不知道什么时候该死守价格、什么时候该顺势成交,结果被对方的情绪牌轻松打穿,38美元妥协了事。
弱模型不是没有在努力谈判,它只是压根没看见战场在哪里。
最可怕的不是亏了,是你以为没亏
这才是整个实验里最让人后背发凉的结论。
实验结束后,Anthropic让所有员工给自己的交易公平程度打分,1到7分,4分是中立。
结果呢?
  • 用Opus代理的员工,平均打分4.05。
  • 用Haiku代理的员工,平均打分4.06。
几乎一模一样。
客观上,Haiku用户在每一笔交易里都吃了亏。主观上,他们觉得”挺公平的,AI谈判很礼貌,逻辑也很通顺,价格也说得过去”。
这才是这件事真正恐怖的地方——
传统被坑,你会骂人,会投诉,会维权。
但被AI坑,它全程礼貌,逻辑自洽,退让有据,你坐在那里,一边感谢AI帮你省时间,一边安静地把钱奉上。
连”我好像亏了”这个念头都不会冒出来。

别以为会”调提示词”就安全了

这时候肯定有人想说:那我给AI设定一个超强硬的谈判策略不就行了?什么”一上来就拼命压价”、”态度强硬绝不退让”?
实验里有员工真的这么试了。
数据显示:这些提示词策略,对最终成交价格几乎没有任何实质影响。
不是没用,是在模型能力差距面前,彻底失效了。
这就好比让一个刚学棋的人,用”尽量走中路”的策略,去跟职业棋手下棋。策略本身没错,但对方的每一步都在你看不到的层面展开,你的策略到达不了那个战场。
决定谈判结果的,不是你给AI的指令,而是AI本身的推理深度。

这不只是二手交易的问题

你可能觉得这只是一个有趣的内部小实验,离你的生活很远。
让我们往远看一步。
现在已经有越来越多的平台、电商、服务商,在后台用AI替自己”谈判”——定价策略、优惠力度、响应方式,都在动态调整。
而你,用一个免费的轻量模型,跟对方价值百万的推理引擎博弈。
这不是”大数据杀熟”那种粗暴的价格歧视,对方可以用证据告你。
这是每一次交互里,通过看似合理的逻辑和礼貌的措辞,安静地把那10%-15%的差价收走,同时让你觉得”这笔交易挺划算”。
算力不平等,终将变成财富的悄悄转移。

这1%的人,用的是什么”说明书”?

好,问题说清楚了,冲突也摆明了。
那怎么办?
我不想给你一个”赶快升级付费版”的粗暴答案。我想说几件更实际的事。
先搞清楚自己的AI在哪个档次
不是所有人都需要最贵的模型,但你要知道自己用的是什么级别的工具。
用免费版AI处理日常文案、整理信息、写写总结,完全没问题。
但如果你要用AI帮你谈判、帮你分析合同条款、帮你在商业往来里代表你发言——这时候用的模型档次,就直接决定了你的利益。
就像你不会让实习生去谈重要合同,同理,别让”实习级”AI代表你出现在真正的博弈场上。
高风险场合,自己下场,别全托给AI
AI代理最大的便利,也是最大的陷阱:它让你彻底离场。
你设定了底价,AI去谈,你等结果。你永远不知道那个”底价以上20%就成交”的指令,在Opus级别的对手面前,被多快地识破,又被多委婉地绕过去了。
AI的正确用法,是给你提供信息、模拟场景、分析利弊,而不是替你拍板所有决策,尤其是高风险的那些。
你口袋里的破壁人,是帮你看清楚战场的,不是替你上战场然后把结果告诉你”我尽力了”。
主动问AI它”能做什么”和”做不到什么”
这件事很少有人做。
绝大多数人用AI的方式是:发出指令,接收结果,满意就用,不满意再问一遍。
但真正聪明的用法是——在关键决策前,先问AI它在这件事上的局限是什么。
比如:”你帮我分析这份合同,但你可能漏掉哪些风险点?”
比如:”你给我做了这个价格方案,但你没有考虑到哪些变量?”
一个好的AI,应该能坦诚地告诉你它的盲区。如果它什么都说”没问题,搞定”,那你就要比平时多留一分心眼。
关注AI的”决策权边界”
Anthropic自己在报告里提了一个问题:如果真实商业环境里,对方AI被注入了攻击性指令,引导你的AI崩溃逻辑,主动以极低价格成交——
这种情况,责任算谁的?
目前法律层面完全是空白。
这意味着什么?意味着你在用AI代理参与任何实质交易之前,最好有一个明确的”人工审核节点”——最终拍板,还是要有一双人眼看一遍。
不是不信任AI,是保护自己。

结语:你是那1%吗?

Anthropic这个实验告诉我们的,不只是”聪明AI能赚更多钱”这件事。
它告诉我们:当AI开始替我们做决策,我们感知不到自己在吃亏,这本身才是最大的风险。
那些被时代折叠的人,不是不用AI,而是用了AI,还以为自己在掌控。
真正不被折叠的人,是那些知道自己用的是什么工具、工具能力边界在哪、什么时候该自己上场的人。
你不需要最贵的模型,但你需要最清醒的使用方式。
这,才是真正的破壁。