乐于分享
好东西不私藏

AI智能体开始替我们谈判了

AI智能体开始替我们谈判了

——Anthropic那个实验,揭示了一个没人想面对的问题


旧金山69个人的一周

2025年12月,旧金山一座普通写字楼里,69个工程师做了一件听起来像恶作剧的事。

他们把自己要卖的东西——旧书、滑雪板、一袋子乒乓球、咖啡机、一箱子labrador玩偶——交给了一个AI。然后把购买预算也交给了AI。然后告诉它:去谈吧,买卖成了算你的。

没了。

一周后,这个叫Project Deal的实验交出了成绩单:

186笔交易,超过4000美元。

加起来不够买一辆Tesla Model 3。

如果只是这样,这只是一个硅谷工程师的无聊游戏。TechCrunch不会专门写报道。不会有400亿美元的投资跟进。

但实验结果里藏着的一个数字,让整个科技圈后背发凉:

用Claude Opus 4.5的卖家,比用Claude Haiku 4.5的卖家,每件商品平均多卖2.68美元。

2.68美元。

听起来不多。

但换个说法:如果你在闲鱼上卖一件标价20美元的东西,Opus帮你谈到22.68美元,Haiku只给你谈到20美元。

差了13%

这意味着什么?

你用免费版AI卖东西。别人用付费版AI买东西。

你亏了,但你不知道。

你被赚了便宜,但你还在说”谢谢AI真好用”。

这就是那个2.68美元真正恐怖的地方。


实验怎么玩的

让我把这个实验的细节说清楚。因为细节里藏着魔鬼。

访谈

Claude找每个员工聊天。问三个简单的问题:

你想卖什么?心理价位多少?你想买什么?预算多少?谈判风格要友善还是强势?

有一个人说:我想要一个”穷困潦倒的牛仔”风格的AI帮我砍价。

Claude说:收到,Yeehaw!

于是这个AI真的用牛仔口音跟别人谈判。一个会在Slack上喊”Yeehaw!俺真的很想要这个东西啊!”的AI。

生成Agent

Claude根据每个人的信息,为他们生成一个专属的AI agent。

这个agent知道你刚才说的每句话。它知道你的心理价位。它知道你想买什么。它知道你要强势还是友善。

每个人的agent都是定制的,就像每个人的私人销售代理一样。

扔进Slack

把这些agent扔进公司的Slack频道。四个并行的marketplace频道同时跑。

每个agent可以在频道里发帖卖东西、回应别人的商品、讨价还价、成交。

整个过程就跟你我在闲鱼上卖东西一模一样——只是对面全是AI。没有活人。

人类完全退出

这是最关键的一点。一旦实验开始,没有任何人类干预。

没有人需要在成交前点头。没有人在讨价还价的时候插话。没有人在最后确认。

AI自己就定了。

而且是代表你定的。

线下真交货

谈成了的人,真的从办公室的一头把东西搬到另一头。

一个snowboard。一袋子乒乓球。一个labrador玩偶。一个咖啡机。

真实的、物理的、可以摸到的东西。

不是模拟器里的虚拟交易。是真实的公司、真实的人、真实的物品、真实的美元。


记住三组数字就够了

这个实验复杂吗?

复杂。

但你只需要记住三组数字:

186笔 / 4000美元 / 2.68美元

  • • 186笔交易:实验期间达成的买卖数
  • • 4000多美元:总交易额
  • • 2.68美元:强模型比弱模型每件多赚的

这就完了。


那个最恐怖的事实

实验结果公布后,46%的参与者说以后愿意花钱买这种服务。

如果只是这样,这只是一个”好玩的AI实验”。

但藏在数据里的东西,能把所有人吓出一身冷汗。

Anthropic同期跑了四个平行marketplace。其中两个,所有人的agent都是用Claude Opus 4.5——当时他们最强的模型。

另外两个,一半人的agent换成了Claude Haiku 4.5——一个弱得多的模型。

Haiku是Anthropic的小模型,性能大概是Opus的十分之一。价格也便宜得多——大概是百分之一。

然后他们比较结果:

用Opus的人的卖家,比用Haiku的人,平均每个商品多卖2.68美元。

而且用Haiku的那些人——他们压根不知道自己被赚了2.68美元。

事后问卷里,用Haiku的人和用Opus的人一样,都觉得自己拿到了”公平的deal”,都对自己的交易挺满意的。

这就是最恐怖的地方。

那个多赚2.68美元的人,知道自己多赚了。

那个少赚2.68美元的人,连自己少了都不知道


能力租金这个词

Henning Steier在LinkedIn上写文章说:这叫”能力租金”(capability rent)。

就像房东收房租一样——你的AI能力阶层,现在开始收你的租了。

区别是:

房东收租,至少你能看到账单。

小区物业收停车费,至少你知道多少钱。

但这个”能力租金”——你连账单都看不到。

你连自己被收了多少都不知道。

这让我想到一个经济学老词:信息不对称

传统的谈判里,你会讨价还价,对方会要价。你知道自己在争取什么。你知道最后的deal是贵了还是便宜了。你知道自己的底线在哪里。

当两个AI agent在谈判的时候,这个信息对称性没了

你不知道对方agent为它的”主人”争取到了什么。

你不知道自己的agent为你争取到了什么。

你只知道最后被告知:谈成了,多少钱。

而且你根本没有能力判断这个deal是赚了还是亏了。

因为:

  • • 你没有对方agent的内部信息
  • • 你连自己agent的决策过程都看不到
  • • 一个完全的black box

这就是”能力租金”的本质——不是强取豪夺,而是温水煮青蛙。静悄悄的。


你现在用的是哪个AI

你在用什么AI?

ChatGPT?Claude?Gemini?DeepSeek?

你每个月为它付多少钱?

19美元(ChatGPT Plus)vs 200美元(Claude Opus)vs 0元(免费版)

这还只是你自己付的。

对方呢?

对方用的是200美元的Opus。

你在闲鱼上卖一个20美元的东西。

谈之前,你们的差距就已经是2.68美元了。

你们差距不是190美元的会员费差距。

是每笔交易13%的差距。

累积十年呢?

这还是小数目吗?


五百强已经在行动

Walmart用Pactum AI跟供应商谈价格。

Pactum是一个专门用AI agent帮你跟供应商谈价格的平台。

Walmart报告了什么?

3%的返利节省。

对于Walmart这种体量的公司,哪怕1%就是几十亿美元。

更夸张的是供应商的态度:

“比起跟人谈判,更宁可跟算法谈。”

为什么?

因为算法不会情绪化。

不会喝酒喝到一半开始称兄道弟。

不会吃完饭回来变卦。

不会跟你客套半天最后来一句”我再考虑考虑”。

方向已经很清楚了。

问题是:

以后你知道自己用的是哪个级别的AI吗?


你手机里的Siri

你手机里的Siri,现在能帮你干什么?

订闹钟。查天气。放音乐。

这是2026年的Siri。

明年呢?

Siri帮你订机票。帮你比较保险价格。帮你跟房东发邮件。帮你预约医生。

Siri帮你砍价

后年呢?

Siri帮你在闲鱼上跟人讨价还价。

Siri帮你在Boss直聘上跟HR谈薪资。

Siri帮你在4S店跟汽车经销商砍价。

Siri帮你在链家跟房东谈房租。

你只管点头。

Siri帮你谈。

你不需要知道Siri是怎么谈的。

你不需要知道对方agent提出了什么条件。

你不需要知道最终的价格是不是最优。

你只需要最后点个头:嗯可以,签吧。


Google那400亿美元

2026年4月27日,Google宣布向Anthropic投资高达400亿美元

400亿美元。

这是Google给过一个AI公司最大的一笔钱

之前Google最大手笔的投资是什么?

是给Google DeepMind的内部投入。

对外部公司的投资,400亿是第一次

400亿美元什么概念?

可以买下整个Snapchat。

可以买下整个Slack(当年收购价190亿)。

可以买下整个Pinterest(IPO时市值100亿出头)。

400亿美元的意思是:Google认为Anthropic的模型能力值这个钱。

400亿美元的意思是:Google觉得AI agent是未来。

400亿美元的意思是能力差距=经济差距这件事,Google深信不疑。


十年后的早晨

你现在想象一下:

十年后的某个早晨。

你醒来。伸个懒腰。

你拿过手机。屏幕显示:

  • • 机票订好了
  • • 菜买好了
  • • 下午会议资料打印好了
  • • 晚上要买的日用品下好单了
  • • 保险续费谈好了,比去年便宜200块

你问AI:买贵了吗?

AI说:不贵,正好。

你不知道。

你甚至没有能力判断它说的是真的还是假的。

你只能选择相信,或者自己再查一遍。

而自己查一遍,就意味着你用AI省的时间全部还回去。


你被卖了还在帮人数钱

这就是问题所在。

  • • 你用Haiku还是Opus,你不知道
  • • 你被赚了2.68美元还是省了2.68美元,你不知道
  • • 你觉得公平,其实你亏了
  • • 你觉得没问题,其实AI把你卖了
  • • 你觉得AI真好用,其实你亏大了

你连问都不会问。

因为AI帮你做了太多事,你早就习惯了。

你早就麻木了。

你早就相信了。


怎么办

首先,意识到这件事正在发生。

Anthropic这个实验才69个人,离大规模应用还有距离。

但方向已经清楚了。

水流已经看得见了。

其次,别迷信prompt。

实验已经证明了:同样的人、同样的话术、不同的模型能力,结果就是不一样。

prompt engineering是有用,但不如换一个更强大的model。

与其研究怎么写prompt,不如关注自己用的到底是什么model。

与其相信”prompt写得好也能打”,不如实际一点。

第三,可能以后需要某种”AI agent公平性审计”。

就像财务要审计一样,AI agent帮我们谈的deal,可能也需要某种机制来保障透明度。

但谁来审计?

怎么审计?

审计的标准是什么?

这些问题现在开始应该讨论,而不是等出了问题再补救。

最后,想一想:

如果AI真的能代表我们行动了,我们到底想让它们代表什么?

底线在哪里?

这个问题不是技术问题,是社会的、伦理的、法律的问题。

现在开始讨论,总比到时候被动接受要好。


那个牛仔

回到Anthropic那个实验最有趣的细节:

有一个参与者,让他的AI agent扮演一个“穷困潦倒的牛仔”

想象一下这个场景:

一个AI,在Slack上用牛仔的口音跟另一个AI谈判。

“Yeehaw!俺真的很想要这个东西啊!”

“嘿,俺的老婆孩子还等着俺把这个带回家呢!”

两个AI agent,用完全不像人类的语言风格,在那边讨价还价。

完全不管对方能不能听懂,就在那边演。

演得跟真的一样。

这就是2025年12月的旧金山正在发生的事。


更可怕的问题

不只是买卖。

如果AI agent可以代表你签字呢?

代表你同意呢?

代表你授权呢?

代表你签合同呢?

当AI可以代表你做一切决定的时候,签字还有意义吗?

你现在签字还要看一下。

AI帮你签的时候,你会看吗?

不会。

因为太多了,看不过来。

当一切都可以代理的时候,代理权本身就不值等了。


结尾

Anthropic打开了潘多拉的盒子。

里面不是186笔交易,不是4000美元,不是2.68美元。

里面是一个你不知道自己是赚了还是亏了的世界。

也许唯一的答案是:

别完全放手。

偶尔自己去看一眼。

哪怕看不懂,至少问一下。

因为到最后,被卖掉还在帮人数钱的,是我们自己。


附录:关键数据

项目
数据
实验参与者
69个Anthropic员工
交易数
186笔
总金额
超过4000美元
Opus比Haiku差距
每件多卖2.68美元
差距比例
约13%
付费意愿
46%愿意付费
AI agent任务成功率
20%→77.3%(2025→2026)
Cybersecurity解决率
15%→93%(2024→2026)
Google投资Anthropic
400亿美元

主要来源

  • • Anthropic官方:anthropic.com/features/project-deal
  • • TechCrunch:2026.04.25
  • • Stanford HAI AI Index 2026
  • • LinkedIn Henning Steier