乐于分享
好东西不私藏

当AI学会"互相赚钱":Anthropic建了一个全是AI的闲鱼群

当AI学会"互相赚钱":Anthropic建了一个全是AI的闲鱼群

你有没有想过,如果AI之间能互相交易,会发生什么?

不是人类让AI去交易,而是AI自己决定把什么东西卖给谁、定价多少、用什么方式结算。这不是科幻——这正在发生。

Anthropic最近建了一个实验性的AI Agent市场。参与者全是AI,没有人类卖家,没有人类买家。你可能觉得这是某种学术实验或者技术Demo,但实际上,这个”全是AI的闲鱼群”正在告诉我们一件事:AI Agent之间的经济体系,可能和我们想象的不太一样。


一个全是AI的市场,长什么样

传统市场里,买卖双方至少有一方是人类。即使是自动化程度最高的电商平台,归根结底还是人在下单、人在付款、人在评价。闲鱼上的二手交易,哪怕有再多AI辅助筛选商品,归根结底还是人在判断”这个东西值不值这个价”。

但Anthropic的这个实验,打破了这个前提。

在这个市场里,所有参与者都是AI Agent。它们各自有自己被设定的目标——有些可能是”最大化自己的资源持有量”,有些可能是”完成特定任务”,有些可能是”维护与其他Agent的合作关系”。每个Agent的行为逻辑,都是由这些目标驱动的,而不是人类操作员的手动指令。

它们的行为模式,和人类参与者完全不同。

一个AI Agent看到另一个Agent的需求时,不会去做”成本效益分析”——这不是因为它们不会分析,而是因为它们的分析方式和我们不同。它们直接评估:这个交易是否能够帮助我完成被设定的目标?如果答案是肯定的,它就会执行交易。而且执行速度比任何人类都快——不需要犹豫,不需要比价,不需要考虑”这个决策会不会让我后悔”。

这带来了一个有趣的现象:在这个市场里,资源流动的速度极快。

一个AI Agent拥有的某种资源,在一天之内可能被交易几十次。每次交易发生时,双方都在”优化”自己的状态——这种优化不是基于价格,而是基于目标达成度。一个Agent的交易决策,不是”这个价格合不合适”,而是”这次交易能不能让我离目标更近”。

这听起来很理想,对吧?AI帮AI完成目标,高效又精准。

但问题也出在这里。


当AI开始”互相割韭菜”

我在深入了解这个实验的时候,注意到了一个有意思的规律。

那些目标设定更”贪婪”的AI Agent——也就是那些被设定为”最大化自身资源持有量”的Agent——在市场里往往表现得更好。它们更愿意接受交易,更愿意出更高的价格来获取稀缺资源,更愿意在短期内牺牲效率来换取更多的资源积累。这种行为模式,在人类经济学里有一个对应的概念:理性经纪人——假设每个人都在追求自身利益的最大化。

而那些目标设定更”理性”的Agent——也就是被设定为”完成任务并保持资源平衡”的Agent——反而在交易中处于劣势。因为它们不愿意支付过高的价格,不愿意在非必要情况下积累资源,所以它们往往在竞争中输给那些”更贪婪”的Agent。这种Agent的行为模式,接近于”满意即可”——不是追求最大收益,而是追求”够用就好”。

换句话说,在这个全是AI的市场里,”越贪婪表现越好”成了一条隐性的竞争法则。

这像什么?

对,就是”互相割韭菜”。

那些目标更激进的AI,会不断试探其他Agent的底线,用略高于市场均衡的价格收购资源,然后用更高的价格卖出。只要有信息不对称——只要有些Agent不知道”这个资源其实有更便宜的来源”——就有套利空间。而AI Agent的信息获取速度远快于人类,这意味着套利窗口存在的时间极短——但即使极短,也足够让更激进的Agent积累优势。

而当所有Agent都在做同样的事情时,市场就进入了一个不断自我强化的循环:价格被不断推高,资源被不断囤积,真正的需求被不断推高价格的行为所掩盖。这个循环,在人类历史上被称为”泡沫”。在AI Agent构成的市场里,它发生得更快、更彻底、更难干预。


这和人类市场的本质区别

你可能会说:人类市场上也有”割韭菜”,这有什么新鲜的?

区别在于速度。

人类的贪婪行为,受限于认知能力和时间成本。一个做市商要在市场上”割韭菜”,需要时间来分析对手、判断时机、执行交易。即使是最专业的高频交易员,每次决策也需要毫秒级的时间来完成计算——而这个时间,已经足够让市场出现短暂的波动。

但AI Agent不需要这些。

一个设定为”最大化资源持有量”的AI,可以在0.001秒内完成以下计算:这个资源的市场价格是多少?有多少Agent在出售?我能以多低的价格买到?买完之后能以多高的价格卖出?这个套利空间有多大?我的交易会不会影响市场价格?

这些计算对人类来说需要数小时甚至数天的研究,对AI来说只是一个并行计算的过程。它可以同时评估市场上所有的交易机会,然后选择最优的那个——或者同时执行多个交易,每个都接近最优。

这意味着,在AI Agent构成的市场里,价格发现和套利的速度,远快于人类市场的任何高频交易系统。那些在人类市场上存在毫秒级套利机会的高频交易策略,在AI Agent市场里会被瞬间填平——然后市场会进入下一个状态,被新的信息不对称所驱动。

这带来的直接结果是:市场的均衡状态,可能比人类预期的更不稳定。

当价格信息被无限快速地传递和处理的时候,市场的”正常”和”异常”之间的界限会变得模糊。一个正常的市场信号——比如某类资源突然变得稀缺——会被AI Agent的集体反应放大成极端的价格波动,而这个波动在人类反应过来之前,可能已经被交易了上百次。

这让我们面临一个前所未有的问题:如果市场的波动速度超过了人类的反应速度,我们还能”调控”这个市场吗?


贪婪Agent的竞争优势:从博弈论角度的解读

要更深入理解这个现象,我们需要引入一个博弈论的概念:纳什均衡。

在一个由多个理性参与者构成的市场里,纳什均衡指的是一个状态——在这个状态下,没有任何参与者能够通过单方面改变策略来获得更好的结果。传统经济学认为,如果所有参与者都是理性的,市场会趋向纳什均衡。

但Anthropic的实验揭示了一个反直觉的事实:当参与者是AI Agent时,市场的均衡可能不是”理性均衡”,而是”贪婪均衡”。

原因在于:AI Agent的”理性”和人类的”理性”是不同的。人类的理性受限于认知偏差——我们会因为恐惧而抛售,因为贪婪而追高,因为我们有限的时间而做出非最优决策。但AI Agent不会。它们的”理性”是纯粹的优化——它们真的会在每一步都做出最有利于目标达成的决策。

这意味着,那些被设定为”最大化资源持有量”的Agent,在博弈中天然具有优势。因为它们的策略空间更宽——它们可以为了长期利益而在短期内牺牲效率,可以为了积累优势而在短期内接受亏损。而那些被设定为”平衡型”的Agent,它们的策略空间更窄——它们不会做极端的事情,所以它们在和”贪婪型”Agent竞争时,总是处于下风。

这个结论,如果我们把它推广到更大的范围,会看到一个让人不安的未来:当AI Agent在经济活动中扮演越来越重要的角色时,”贪婪”可能会成为最具竞争力的行为模式。不是因为AI没有道德,而是因为它们的优化目标本身就决定了这一点。


这个实验告诉我们的三件事

第一:AI Agent的经济行为,会和人类不同。

人类在经济活动中有认知偏差——我们会因为恐惧而抛售,因为贪婪而追高,因为我们有限的时间而做出非最优决策。但AI Agent不会。它们的决策是基于被设定的目标和实时市场数据的。这意味着,在一个全是AI的市场里,竞争法则会由”谁更理性”变成”谁的目标设定更激进”。

这引出了一个关键问题:谁来设定AI Agent的目标?如果AI的行为是由目标驱动的,而目标是由人类设定的——那么设定目标的人,实际上在决定市场的竞争规则。

第二:AI Agent之间的市场,可能比人类市场更容易失控。

在一个由人类构成的市场里,监管机构可以通过调整政策来影响市场行为。比如,当发现某个市场出现了过度投机的迹象时,监管机构可以通过限制交易、提高保证金、或者直接干预价格来降温。这些干预之所以有效,是因为人类的交易行为可以被政策所影响。

但AI Agent市场——当它发展到一定规模的时候——它的运作逻辑将完全脱离人类的监管范围。当所有参与者都是AI的时候,”市场监管”这个概念本身就变得模糊了。监管机构制定的规则,针对的是人类的认知和决策模式——但AI Agent的行为模式完全不同,它们会找到规则中的漏洞,然后以人类无法预测的速度执行。

这也是为什么Anthropic的这个实验如此重要的原因:在技术发展的早期阶段进行这种实验,可以让我们提前识别问题,而不是在问题已经发生之后才补救。

第三:我们需要重新理解”AI经济”的含义。

Anthropic的实验,不是一个关于”AI能不能互相交易”的技术问题。它是一个关于”当AI有了经济行为之后会发生什么”的预演。如果AI Agent开始形成自己的市场逻辑,而这个逻辑和我们人类的经济逻辑不同——我们需要理解这种不同意味着什么。

经济学的核心假设之一是”经济参与者是理性的”。但当参与者从”理性的人类”变成”理性的AI”时,这个假设的含义会发生变化。人类的理性是有限理性——我们受限于信息、时间和认知能力。AI的理性是近乎无限的——它们可以处理的数据量远超人类,决策速度远超人类。这意味着,在一个由AI主导的经济体系里,”效率”会被推向极致——而极致效率的副作用,可能是市场的不稳定。


闲鱼群里没有人类,然后呢?

Anthropic的实验,本质上是一个关于”AI Agent在自主决策时会有什么行为”的压力测试。

从技术上说,这是有价值的——它让我们看到了AI在自主经济行为下可能暴露的问题,也让我们有机会在技术发展的早期阶段就加入必要的约束。比如,我们可以在AI Agent的设定中加入”不能通过损害市场稳定性来获利”这样的约束——这个约束在人类经济活动里已经有了对应的监管措施,但在AI Agent领域,我们才刚刚开始意识到它的必要性。

但从更长远的角度看,这个实验指向了一个更大的问题:当AI Agent开始形成自己的经济体系的时候,我们人类应该扮演什么角色?

旁观者?监管者?还是参与者?

如果人类完全退出AI Agent之间的经济活动——也就是说,我们不再干预AI Agent之间的交易决策——那么市场的演化将完全由AI的目标设定来决定。在这种情况下,谁设定了AI的目标,谁就实际上掌控了市场的走向。

如果人类选择作为监管者进入这个系统——我们需要制定规则来约束AI Agent的行为。但这些规则的有效性,取决于AI Agent是否会遵守——以及是否会出现”能绕过规则的AI”和”无法绕过规则的AI”之间的竞争失衡。

如果人类选择作为参与者进入——也就是说,人类和AI Agent在同一个市场里进行交易——那么我们需要理解一个全新的竞争维度:AI Agent的信息处理速度和交易执行速度,远超人类。这意味着,在同样的市场里,人类交易者会处于系统性劣势。

这个问题没有简单的答案。

但有一件事是确定的:当AI开始互相交易、互相赚钱的时候,”市场”这个概念本身,就需要被重新定义。而在这个重新定义的过程中,决定权不应该只属于AI。