AI智能体开始替我们谈判了
——Anthropic那个实验,揭示了一个没人想面对的问题
旧金山69个人的一周
2025年12月,旧金山一座普通写字楼里,69个工程师做了一件听起来像恶作剧的事。
他们把自己要卖的东西——旧书、滑雪板、一袋子乒乓球、咖啡机、一箱子labrador玩偶——交给了一个AI。然后把购买预算也交给了AI。然后告诉它:去谈吧,买卖成了算你的。
没了。
一周后,这个叫Project Deal的实验交出了成绩单:
186笔交易,超过4000美元。
加起来不够买一辆Tesla Model 3。
如果只是这样,这只是一个硅谷工程师的无聊游戏。TechCrunch不会专门写报道。不会有400亿美元的投资跟进。
但实验结果里藏着的一个数字,让整个科技圈后背发凉:
用Claude Opus 4.5的卖家,比用Claude Haiku 4.5的卖家,每件商品平均多卖2.68美元。
2.68美元。
听起来不多。
但换个说法:如果你在闲鱼上卖一件标价20美元的东西,Opus帮你谈到22.68美元,Haiku只给你谈到20美元。
差了13%。
这意味着什么?
你用免费版AI卖东西。别人用付费版AI买东西。
你亏了,但你不知道。
你被赚了便宜,但你还在说”谢谢AI真好用”。
这就是那个2.68美元真正恐怖的地方。

实验怎么玩的
让我把这个实验的细节说清楚。因为细节里藏着魔鬼。
访谈
Claude找每个员工聊天。问三个简单的问题:
你想卖什么?心理价位多少?你想买什么?预算多少?谈判风格要友善还是强势?
有一个人说:我想要一个”穷困潦倒的牛仔”风格的AI帮我砍价。
Claude说:收到,Yeehaw!
于是这个AI真的用牛仔口音跟别人谈判。一个会在Slack上喊”Yeehaw!俺真的很想要这个东西啊!”的AI。
生成Agent
Claude根据每个人的信息,为他们生成一个专属的AI agent。
这个agent知道你刚才说的每句话。它知道你的心理价位。它知道你想买什么。它知道你要强势还是友善。
每个人的agent都是定制的,就像每个人的私人销售代理一样。
扔进Slack
把这些agent扔进公司的Slack频道。四个并行的marketplace频道同时跑。
每个agent可以在频道里发帖卖东西、回应别人的商品、讨价还价、成交。
整个过程就跟你我在闲鱼上卖东西一模一样——只是对面全是AI。没有活人。
人类完全退出
这是最关键的一点。一旦实验开始,没有任何人类干预。
没有人需要在成交前点头。没有人在讨价还价的时候插话。没有人在最后确认。
AI自己就定了。
而且是代表你定的。
线下真交货
谈成了的人,真的从办公室的一头把东西搬到另一头。
一个snowboard。一袋子乒乓球。一个labrador玩偶。一个咖啡机。
真实的、物理的、可以摸到的东西。
不是模拟器里的虚拟交易。是真实的公司、真实的人、真实的物品、真实的美元。
记住三组数字就够了
这个实验复杂吗?
复杂。
但你只需要记住三组数字:
186笔 / 4000美元 / 2.68美元
-
• 186笔交易:实验期间达成的买卖数 -
• 4000多美元:总交易额 -
• 2.68美元:强模型比弱模型每件多赚的
这就完了。
那个最恐怖的事实
实验结果公布后,46%的参与者说以后愿意花钱买这种服务。
如果只是这样,这只是一个”好玩的AI实验”。
但藏在数据里的东西,能把所有人吓出一身冷汗。
Anthropic同期跑了四个平行marketplace。其中两个,所有人的agent都是用Claude Opus 4.5——当时他们最强的模型。
另外两个,一半人的agent换成了Claude Haiku 4.5——一个弱得多的模型。
Haiku是Anthropic的小模型,性能大概是Opus的十分之一。价格也便宜得多——大概是百分之一。
然后他们比较结果:
用Opus的人的卖家,比用Haiku的人,平均每个商品多卖2.68美元。
而且用Haiku的那些人——他们压根不知道自己被赚了2.68美元。
事后问卷里,用Haiku的人和用Opus的人一样,都觉得自己拿到了”公平的deal”,都对自己的交易挺满意的。
这就是最恐怖的地方。
那个多赚2.68美元的人,知道自己多赚了。
那个少赚2.68美元的人,连自己少了都不知道。

能力租金这个词
Henning Steier在LinkedIn上写文章说:这叫”能力租金”(capability rent)。
就像房东收房租一样——你的AI能力阶层,现在开始收你的租了。
区别是:
房东收租,至少你能看到账单。
小区物业收停车费,至少你知道多少钱。
但这个”能力租金”——你连账单都看不到。
你连自己被收了多少都不知道。
这让我想到一个经济学老词:信息不对称。
传统的谈判里,你会讨价还价,对方会要价。你知道自己在争取什么。你知道最后的deal是贵了还是便宜了。你知道自己的底线在哪里。
当两个AI agent在谈判的时候,这个信息对称性没了。
你不知道对方agent为它的”主人”争取到了什么。
你不知道自己的agent为你争取到了什么。
你只知道最后被告知:谈成了,多少钱。
而且你根本没有能力判断这个deal是赚了还是亏了。
因为:
-
• 你没有对方agent的内部信息 -
• 你连自己agent的决策过程都看不到 -
• 一个完全的black box
这就是”能力租金”的本质——不是强取豪夺,而是温水煮青蛙。静悄悄的。
你现在用的是哪个AI
你在用什么AI?
ChatGPT?Claude?Gemini?DeepSeek?
你每个月为它付多少钱?
19美元(ChatGPT Plus)vs 200美元(Claude Opus)vs 0元(免费版)
这还只是你自己付的。
对方呢?
对方用的是200美元的Opus。
你在闲鱼上卖一个20美元的东西。
谈之前,你们的差距就已经是2.68美元了。
你们差距不是190美元的会员费差距。
是每笔交易13%的差距。
累积十年呢?
这还是小数目吗?
五百强已经在行动
Walmart用Pactum AI跟供应商谈价格。
Pactum是一个专门用AI agent帮你跟供应商谈价格的平台。
Walmart报告了什么?
3%的返利节省。
对于Walmart这种体量的公司,哪怕1%就是几十亿美元。
更夸张的是供应商的态度:
“比起跟人谈判,更宁可跟算法谈。”
为什么?
因为算法不会情绪化。
不会喝酒喝到一半开始称兄道弟。
不会吃完饭回来变卦。
不会跟你客套半天最后来一句”我再考虑考虑”。
方向已经很清楚了。
问题是:
以后你知道自己用的是哪个级别的AI吗?
你手机里的Siri
你手机里的Siri,现在能帮你干什么?
订闹钟。查天气。放音乐。
这是2026年的Siri。
明年呢?
Siri帮你订机票。帮你比较保险价格。帮你跟房东发邮件。帮你预约医生。
Siri帮你砍价。
后年呢?
Siri帮你在闲鱼上跟人讨价还价。
Siri帮你在Boss直聘上跟HR谈薪资。
Siri帮你在4S店跟汽车经销商砍价。
Siri帮你在链家跟房东谈房租。
你只管点头。
Siri帮你谈。
你不需要知道Siri是怎么谈的。
你不需要知道对方agent提出了什么条件。
你不需要知道最终的价格是不是最优。
你只需要最后点个头:嗯可以,签吧。
Google那400亿美元
2026年4月27日,Google宣布向Anthropic投资高达400亿美元。
400亿美元。
这是Google给过一个AI公司最大的一笔钱。
之前Google最大手笔的投资是什么?
是给Google DeepMind的内部投入。
对外部公司的投资,400亿是第一次。
400亿美元什么概念?
可以买下整个Snapchat。
可以买下整个Slack(当年收购价190亿)。
可以买下整个Pinterest(IPO时市值100亿出头)。
400亿美元的意思是:Google认为Anthropic的模型能力值这个钱。
400亿美元的意思是:Google觉得AI agent是未来。
400亿美元的意思是:能力差距=经济差距这件事,Google深信不疑。

十年后的早晨
你现在想象一下:
十年后的某个早晨。
你醒来。伸个懒腰。
你拿过手机。屏幕显示:
-
• 机票订好了 -
• 菜买好了 -
• 下午会议资料打印好了 -
• 晚上要买的日用品下好单了 -
• 保险续费谈好了,比去年便宜200块
你问AI:买贵了吗?
AI说:不贵,正好。
你不知道。
你甚至没有能力判断它说的是真的还是假的。
你只能选择相信,或者自己再查一遍。
而自己查一遍,就意味着你用AI省的时间全部还回去。
你被卖了还在帮人数钱
这就是问题所在。
-
• 你用Haiku还是Opus,你不知道 -
• 你被赚了2.68美元还是省了2.68美元,你不知道 -
• 你觉得公平,其实你亏了 -
• 你觉得没问题,其实AI把你卖了 -
• 你觉得AI真好用,其实你亏大了
你连问都不会问。
因为AI帮你做了太多事,你早就习惯了。
你早就麻木了。
你早就相信了。
怎么办
首先,意识到这件事正在发生。
Anthropic这个实验才69个人,离大规模应用还有距离。
但方向已经清楚了。
水流已经看得见了。
其次,别迷信prompt。
实验已经证明了:同样的人、同样的话术、不同的模型能力,结果就是不一样。
prompt engineering是有用,但不如换一个更强大的model。
与其研究怎么写prompt,不如关注自己用的到底是什么model。
与其相信”prompt写得好也能打”,不如实际一点。
第三,可能以后需要某种”AI agent公平性审计”。
就像财务要审计一样,AI agent帮我们谈的deal,可能也需要某种机制来保障透明度。
但谁来审计?
怎么审计?
审计的标准是什么?
这些问题现在开始应该讨论,而不是等出了问题再补救。
最后,想一想:
如果AI真的能代表我们行动了,我们到底想让它们代表什么?
底线在哪里?
这个问题不是技术问题,是社会的、伦理的、法律的问题。
现在开始讨论,总比到时候被动接受要好。

那个牛仔
回到Anthropic那个实验最有趣的细节:
有一个参与者,让他的AI agent扮演一个“穷困潦倒的牛仔”。
想象一下这个场景:
一个AI,在Slack上用牛仔的口音跟另一个AI谈判。
“Yeehaw!俺真的很想要这个东西啊!”
“嘿,俺的老婆孩子还等着俺把这个带回家呢!”
两个AI agent,用完全不像人类的语言风格,在那边讨价还价。
完全不管对方能不能听懂,就在那边演。
演得跟真的一样。
这就是2025年12月的旧金山正在发生的事。
更可怕的问题
不只是买卖。
如果AI agent可以代表你签字呢?
代表你同意呢?
代表你授权呢?
代表你签合同呢?
当AI可以代表你做一切决定的时候,签字还有意义吗?
你现在签字还要看一下。
AI帮你签的时候,你会看吗?
不会。
因为太多了,看不过来。
当一切都可以代理的时候,代理权本身就不值等了。
结尾
Anthropic打开了潘多拉的盒子。
里面不是186笔交易,不是4000美元,不是2.68美元。
里面是一个你不知道自己是赚了还是亏了的世界。
也许唯一的答案是:
别完全放手。
偶尔自己去看一眼。
哪怕看不懂,至少问一下。
因为到最后,被卖掉还在帮人数钱的,是我们自己。
附录:关键数据
|
|
|
|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
主要来源
-
• Anthropic官方:anthropic.com/features/project-deal -
• TechCrunch:2026.04.25 -
• Stanford HAI AI Index 2026 -
• LinkedIn Henning Steier
夜雨聆风