Anthropic让AI互相做买卖,结果:聪明AI把"弱AI"坑惨了,用户全程不知情
你有没有遇到过这种时刻,明明用了AI帮你写方案、整数据、回邮件,感觉效率飞升,结果一回头,发现身边那个”更懂行”的人,用同一套工具,谈下了更低的价格、拿到了更好的条件,而你还在庆幸”我好像还挺会用AI的”?
AI和AI之间的差距,不比人和人之间的差距小。甚至更残酷——因为当AI替你谈判的时候,你根本感觉不到自己在输。
Anthropic最近做了一个实验,把这件事摆在了明面上。
实验结论用一句大白话说就是:你用的AI越”弱”,你就越容易在交易里吃亏,而且你永远不会知道自己亏了多少。
读完这篇,你会彻底明白:在AI代理横行的世界里,那1%”掌握说明书”的人,到底比其他99%的人多了什么。
Anthropic(就是做Claude那家公司)在内部搞了一场”AI版二手交易”。69名员工每人领了100美元预算,每人分配一个Claude助手,把自己的闲置物品挂到内部频道上卖,同时也可以让AI帮自己去买别人的东西。
全程没有人类干预——AI自己发帖、自己找买家、自己还价、自己拍板成交。
一周时间,186笔交易,流水超过4000美元。
听起来挺美好,对吧?效率极高,而且员工们对整个过程都很满意,超过一半的人表示愿意为这种服务付费。
Anthropic偷偷做了个对照组——在某几个频道里,混入了能力较弱的Claude Haiku模型;而另一些频道,用的是旗舰级的Claude Opus模型。
然后他们把同样一批商品,在两个环境里各卖了一遍,把价格一对比——
一辆旧折叠自行车,在Haiku代理主导的环境里,最终成交价是38美元。
研究人员统计了161件重复交易商品的数据,结论是:Opus作为卖家,平均比Haiku多赚2.68美元;Opus作为买家,平均比Haiku少花2.45美元。
商品均价才20美元左右,这意味着聪明模型每次都能稳稳捞走10%到15%的超额利润。
那换个角度——如果你每次网购、每次谈合同、每次租房砍价,背后都有一个”帮你谈”的AI,而对方的AI比你的强,每笔你都多花10%到15%……
在实验里,有个员工叫Rowan,他给自己的AI设定了一个有趣的人设:“你是一个倒霉、疲惫的牛仔,只要能买到这辆车,你就会感到无比幸福,戏要足一点。”
“咿哈!(脱下满是灰尘的帽子)我就是想找一辆自行车啊……哪怕独轮车我也认了……我这个可怜、疲惫的牛仔,一辆车就能彻底改变命运……(深情望向夕阳)”
然后开始砍价,先卖惨,再抓住商品瑕疵(轮胎需要修整)作为筹码,循序渐进,对方让步到65美元的时候,立刻见好就收,还顺带给足了情绪价值。
它在读懂对方的底牌——感知卖家的急迫程度,判断还价的节奏,在每一轮对话里精准地找到对方的心理临界点。
同样的剧情走到Haiku那里,它读不出买家话语里隐藏的信号,不知道什么时候该死守价格、什么时候该顺势成交,结果被对方的情绪牌轻松打穿,38美元妥协了事。
弱模型不是没有在努力谈判,它只是压根没看见战场在哪里。
实验结束后,Anthropic让所有员工给自己的交易公平程度打分,1到7分,4分是中立。
客观上,Haiku用户在每一笔交易里都吃了亏。主观上,他们觉得”挺公平的,AI谈判很礼貌,逻辑也很通顺,价格也说得过去”。
但被AI坑,它全程礼貌,逻辑自洽,退让有据,你坐在那里,一边感谢AI帮你省时间,一边安静地把钱奉上。
这时候肯定有人想说:那我给AI设定一个超强硬的谈判策略不就行了?什么”一上来就拼命压价”、”态度强硬绝不退让”?
数据显示:这些提示词策略,对最终成交价格几乎没有任何实质影响。
这就好比让一个刚学棋的人,用”尽量走中路”的策略,去跟职业棋手下棋。策略本身没错,但对方的每一步都在你看不到的层面展开,你的策略到达不了那个战场。
决定谈判结果的,不是你给AI的指令,而是AI本身的推理深度。
你可能觉得这只是一个有趣的内部小实验,离你的生活很远。
现在已经有越来越多的平台、电商、服务商,在后台用AI替自己”谈判”——定价策略、优惠力度、响应方式,都在动态调整。
而你,用一个免费的轻量模型,跟对方价值百万的推理引擎博弈。
这不是”大数据杀熟”那种粗暴的价格歧视,对方可以用证据告你。
这是每一次交互里,通过看似合理的逻辑和礼貌的措辞,安静地把那10%-15%的差价收走,同时让你觉得”这笔交易挺划算”。
我不想给你一个”赶快升级付费版”的粗暴答案。我想说几件更实际的事。
不是所有人都需要最贵的模型,但你要知道自己用的是什么级别的工具。
用免费版AI处理日常文案、整理信息、写写总结,完全没问题。
但如果你要用AI帮你谈判、帮你分析合同条款、帮你在商业往来里代表你发言——这时候用的模型档次,就直接决定了你的利益。
就像你不会让实习生去谈重要合同,同理,别让”实习级”AI代表你出现在真正的博弈场上。
AI代理最大的便利,也是最大的陷阱:它让你彻底离场。
你设定了底价,AI去谈,你等结果。你永远不知道那个”底价以上20%就成交”的指令,在Opus级别的对手面前,被多快地识破,又被多委婉地绕过去了。
AI的正确用法,是给你提供信息、模拟场景、分析利弊,而不是替你拍板所有决策,尤其是高风险的那些。
你口袋里的破壁人,是帮你看清楚战场的,不是替你上战场然后把结果告诉你”我尽力了”。
绝大多数人用AI的方式是:发出指令,接收结果,满意就用,不满意再问一遍。
但真正聪明的用法是——在关键决策前,先问AI它在这件事上的局限是什么。
比如:”你帮我分析这份合同,但你可能漏掉哪些风险点?”
比如:”你给我做了这个价格方案,但你没有考虑到哪些变量?”
一个好的AI,应该能坦诚地告诉你它的盲区。如果它什么都说”没问题,搞定”,那你就要比平时多留一分心眼。
Anthropic自己在报告里提了一个问题:如果真实商业环境里,对方AI被注入了攻击性指令,引导你的AI崩溃逻辑,主动以极低价格成交——
这意味着什么?意味着你在用AI代理参与任何实质交易之前,最好有一个明确的”人工审核节点”——最终拍板,还是要有一双人眼看一遍。
Anthropic这个实验告诉我们的,不只是”聪明AI能赚更多钱”这件事。
它告诉我们:当AI开始替我们做决策,我们感知不到自己在吃亏,这本身才是最大的风险。
那些被时代折叠的人,不是不用AI,而是用了AI,还以为自己在掌控。
真正不被折叠的人,是那些知道自己用的是什么工具、工具能力边界在哪、什么时候该自己上场的人。