

诺贝尔经济学奖得主迈克尔·斯宾塞警示:“人工智能正在深刻改变亚当·斯密以来的经济学理论根基。” 这一判断揭示了当前经济学面临的深刻挑战——经典理论框架在AI浪潮冲击下出现系统性裂缝。与此同时,另一场静默的革命正在实证层面展开:2026年全球日均AI Token处理量突破160万亿,两年增长1400倍。这一微观经济现象的爆炸式增长,恰恰为斯宾塞的宏观判断提供了最生动的注脚。
本文旨在构建一个连接宏观理论与微观实践的分析框架:以Token经济为观察窗口,探讨AI如何从具体经济现象(Token的计量、交易与定价)出发,逐步侵蚀并重塑经济学的基础理论(分工理论、市场机制、价值理论、增长理论)。我们试图回答的核心问题是:当Token成为AI时代的新型“货币”和“商品”时,经济学的基本公理需要怎样的系统性修正?这场变革不仅是技术的,更是认识论层面的一一它要求经济学家从“解释确定性均衡”转向“理解不确定性涌现”,从“静态比较”转向“动态演化”。

一、理论危机:AI对经济学四大支柱的解构与挑战
1.1 分工理论的边界重绘:从市场规模到算法能力
亚当·斯密的分工理论建立在两个核心假设之上:人类认知的有限性构成分工的自然边界,市场规模决定分工程度。在“制针厂”的经典案例中,分工受制于人类管理者的协调能力和工人的技能专精程度。然而,AI的介入从根本上动摇了这一理论根基。
算法协调对认知边界的突破:在特斯拉上海超级工厂,AI系统将整车制造分解为4387个独立工序并进行实时动态调度。这种“超人类协调”不仅体现在工序数量上,更体现在协调精度上——AI可处理数百万个变量(物料状态、设备效率、工人动线、能源消耗)的实时优化,其复杂程度远超任何人类管理团队的能力边界。斯密所言的“分工受限于人类认知”被重新定义为“分工受限于算法智能的水平”。
动态分工网络的涌现:在全球供应链中,AI系统通过分析港口吞吐量、航运轨迹、地缘政治风险、汇率波动等多维度数据,在毫秒级时间内重构分工网络。2025年红海危机期间,某全球零售企业的AI系统在72小时内重建了完整的替代供应链,将8500家供应商重新匹配到12条新物流路线上。这种分工不再是基于长期契约的静态结构,而是基于实时数据流的动态网络——分工的深度和广度不再由市场规模单维度决定,而由“算法智能×数据流密度×网络连接度”的三元函数决定。
Token经济的微观印证:在Token经济中,这一理论变革体现为“智能体分工”的兴起。一个复杂的商业分析任务,可能被分解为:数据收集Agent(消耗Token A)、模式识别Agent(消耗Token B)、报告生成Agent(消耗Token C),每个Agent由不同模型或同一模型的不同微调版本担任。分工的粒度从“人类岗位”细化到“Token功能单元”,分工协调的成本从“人力资源管理成本”转化为“Token调度算法效率”。这证实了斯宾塞的判断:“算法能力正成为分工的新核心变量”。
1.2 “看不见的手”的算法化:市场失灵的新形态与治理困境
亚当·斯密的“看不见的手”隐喻建立在一个理想化的市场假设之上:信息充分流动,个体理性决策通过价格机制达成社会最优。但AI既可能是这只“手”的强化剂,也可能是其破坏者。
信息不对称的双刃剑效应:传统经济学中,信息不对称导致市场失灵(阿克洛夫“柠檬市场”模型)。AI确实缓解了某些维度的信息不对称——例如,保险精算模型通过驾驶行为数据分析,将风险定价误差从传统模型的±35%降低到±8%;农产品供应链AI将产销匹配效率提升40%,滞销率降低20%。然而,AI也创造了算法性信息不对称:平台企业通过用户数据形成“信息优势垄断”,这种不对称不再是传统的信息匮乏,而是信息处理能力的结构性失衡。
“数字卡特尔”与算法合谋:2024年,欧盟对三家大型电商平台开出创纪录的32亿欧元罚单,原因是其定价算法表现出“非共谋性合谋”——算法通过机器学习发现,维持“竞争性”高价可提升长期利润,无需任何人类高管协商。这种“算法默契”突破了传统反垄断理论对“协议、决议或协同行为”的界定。芝加哥学派的“价格理论”在此遭遇挑战:当定价主体从人类转向算法,竞争均衡的存在性和稳定性需要重新证明。
Token定价的市场实验:在Token经济中,我们观察到一个自然的定价实验场。按量计费模式接近完全竞争市场,价格趋近边际成本(目前低至0.06美元/百万Token);按价值定价模式则呈现垄断竞争特征,价格与创造的价值相关(法律文档审阅Token价值可达1000美元/百万);而包月订阅模式则是一种价格歧视策略。更值得关注的是,智能体之间的Token交易可能形成完全脱离人类监管的二级市场,其价格发现机制将检验“算法市场有效性假说”——这是对法马有效市场假说的极端测试。
1.3 劳动价值论的范式转换:从人类劳动到智能涌现
马克思的劳动价值论将价值源泉锚定在人类抽象劳动中。索洛新古典增长模型则将技术进步视为“天赐甘露”(manna from heaven)般的外生变量。AI的崛起同时挑战了这两个理论范式。
价值源泉的扩散与模糊:在自动驾驶场景中,当算法取代司机后,运输服务的价值如何核算?传统会计将其计入“固定资产折旧(AI系统)”和“运营成本(电力、维护)”,但这掩盖了价值创造的真正逻辑:价值由“人类设计劳动+数据标注劳动+算法涌现智能+实时计算劳动”共同构成。其中“算法涌现智能”具有非加性——整体大于部分之和,这是劳动价值论未曾处理的现象。
“AI资本”作为新的生产要素:在柯布-道格拉斯生产函数Y=AK^αL^β中,A(全要素生产率)原本是外生变量。AI的介入要求我们重构这一函数:Y = F(AI_K, H_K, H_L, Data)。其中:
- AI_K:AI资本存量(模型权重、算法架构、训练框架)
- H_K:传统物质资本
- H_L:人类劳动(但内涵变化,更多是提示工程、监督、创意)
- Data:数据资本,具有非竞争性和部分排他性
更重要的是,AI_K与传统资本的根本差异在于自增强性:AI的使用产生新数据,新数据改进AI,形成正反馈循环。这种内生增长特性正是保罗·罗默内生增长理论在数字时代的极致体现。
Token作为价值度量衡的困境:在Token经济中,价值测量的矛盾尤为尖锐。同样的100万Token,用于闲聊产生几乎为零的市场价值,用于药物分子发现可能创造数亿美元价值。这提出了一个深刻的理论问题:价值是内生于Token(如劳动价值论所言),还是外生于使用场景(如奥地利学派的主观价值论)? Token经济倾向于支持后者,但这也意味着价值失去了客观的、可预先计算的基准。经济学需要发展新的“情境价值理论”来解释这种极端的价值异质性。
1.4 增长理论的重新奠基:从稳态收敛到指数分化
新古典增长理论预测条件收敛——穷国比富国增长更快,最终趋同。但AI经济可能打破这一预言,导致“算力鸿沟”和“数据马太效应”。
指数增长与超线性缩放:AI的性能遵循“缩放定律”(Scaling Laws):模型参数、数据量和计算量同时指数增长时,性能按幂律提升。这意味着AI进步不是线性的,而是超线性的。在Token生产中,这种超线性体现为“算法效率×硬件效率×系统效率”的乘数效应,推动成本每年下降5-10倍。这种技术进步速度远超索洛模型中假设的外生技术进步率g。
增长核算的困境:传统增长核算试图将产出增长分解为资本贡献、劳动贡献和全要素生产率(TFP)贡献。但在AI时代,这种分解失去意义:(1)AI投资既计入资本形成,又是技术进步本身;(2)人力资本与AI资本高度互补,其边际产出难以分离;(3)数据作为非竞争性要素,其“租金”难以测量。Token消耗量或许提供了一个新的增长度量:单位Token的GDP产出率,这可能是比TFP更精准的技术进步指标。
国际增长格局的重构:在Token经济中,我们看到新的“比较优势”矩阵正在形成:

中国在Token经济中的崛起(日均140万亿调用量,OpenRouter平台60%份额)正是这种新比较优势的体现:庞大应用场景产生海量数据,数据优化算法,算法优势降低Token成本,低成本扩大使用规模,形成正反馈循环。这可能意味着增长格局从“条件收敛”转向“能力分化”,一些国家可能被永久锁定在“智能鸿沟”的劣势一侧。
二、Token经济:理论变革的微观实证与机制载体
2.1 可编程生产要素:新生产函数的微观基础
Token的可编程性打破了传统生产要素的“功能固化”特征。在经典生产理论中,资本设备有特定用途,劳动力有专业技能。但同一AI模型通过不同Prompt,可瞬间转换功能:上一刻是法律顾问,下一刻是代码工程师,再一刻是生物信息学家。
生产可能性边界的外移与形态变化:传统生产可能性边界(PPF)是凹向原点的曲线,反映资源专用性带来的转换成本。但AI的可编程性使PPF变得更为平坦甚至局部凸出——通过重新提示(re-prompting),同一套AI资源可近乎零成本转换生产方向。这意味着比较优势从先天禀赋转向后天提示,重塑了国际贸易的微观基础。
生产要素市场的结构变革:在Token市场中,供给曲线呈现经典的成本递减特征,但由于算法进步的指数性,这种递减是内生且持续的。需求曲线则呈现出极端的价值异质性,难以用单一弹性描述。市场均衡点不再是静态的,而是随算法突破、新应用场景发现、监管政策变化而动态漂移。这挑战了马歇尔局部均衡分析的适用性,需要引入复杂系统科学的动态均衡概念。
2.2 市场结构的算法重构:竞争范式的转换
Token市场的演变揭示了AI时代市场结构的新逻辑:
从规模经济到智能经济:传统产业中,规模经济导致自然垄断(如公用事业)。在AI产业,我们看到“规模经济×网络效应×算法智能”的三重效应。ChatGPT凭借先发优势获得规模和数据,但其地位不断受到开源模型(如Llama、Qwen)挑战,因为算法创新可以部分抵消数据规模优势。开源模型通过“算法效率差异化”在特定领域(如代码生成、中文理解)实现超越,形成差异化竞争。
动态竞争与创造性破坏的加速:熊彼特“创造性破坏”在AI时代以月甚至周为单位发生。2025年MoE(混合专家)架构的突破,在3个月内将同等能力的推理成本降低10倍,直接重塑竞争格局。这种技术迭代速度意味着垄断地位更加短暂,进入壁垒更多源于人才和创新能力而非资本存量。
Token期货市场的价格发现功能:正在兴起的Token期货市场不仅是风险管理工具,更是AI进步预期的晴雨表。远期Token价格隐含了市场对未来算法效率、能源成本、监管政策等多重因素的预期。这为宏观经济学提供了一个新的领先指标:Token期货价格曲线可能比传统收益率曲线更能预测技术冲击对经济的影响。
2.3 价值衡量与分配的深层矛盾
Token经济将价值分配问题推向极致:
消费者剩余的爆发性增长与测量难题:如前所述,Collis和Brynjolfsson估算2024年仅生成式AI就为美国消费者创造约970亿美元消费者剩余。但国民账户体系(SNA)完全错过这一价值。这不仅是统计问题,更是理论问题:当商品和服务的边际成本趋近于零(如数字产品),消费者剩余趋近于总价值,传统的基于市场价格的总产出度量(GDP)严重低估经济福利。
要素分配份额的结构性变革:在AI增强的生产函数中,劳动份额(Labor Share)持续下降,但下降的并非所有劳动,而是常规性认知劳动的份额,创造性劳动、人际互动劳动的份额可能上升。资本份额上升,但传统物质资本份额下降,AI资本和数字资本份额飙升。更重要的是,数据作为一种新型非竞争性要素,其“租金”如何分配成为核心矛盾。当用户行为数据训练出的AI创造巨大价值时,用户是否应获得回报?这触及产权理论的核心。
Token定价机制的理论含义:当前三种定价模式(按量、包月、按价值)分别对应不同的经济逻辑:按量计费接近边际成本定价,符合完全竞争市场逻辑;包月制是价格歧视,最大化生产者剩余;按价值收费则是价值捕获尝试,但面临“价值测量成本”难题。这三种模式并存本身说明,AI服务的价值本质上是多维的、情境依赖的、难以预先客观测量的,这挑战了新古典经济学“一物一价”的基本假设。
三、经济学范式的重构:从确定性科学到复杂性适应系统
3.1 方法论革命:从均衡分析到演化动力学
AI经济,特别是Token经济的动态特征,要求经济学方法论的更新:
从比较静态到复杂适应系统:传统经济学擅长比较静态分析——政策A与政策B的均衡比较。但AI经济本质上是复杂适应系统:智能体(人类和AI)不断学习、适应、进化,系统属性从个体互动中涌现。这需要经济学引入复杂系统科学的工具:多智能体模拟、网络理论、演化博弈论、机器学习反事实预测等。
从理性预期到学习动态:理性预期假说假设个体知道“真实模型”。但在AI快速迭代的环境中,没有人(包括经济学家)知道真实的数据生成过程。经济主体(包括AI)都在不断学习,经济系统本身也在被学习过程改变。这需要将经济学重建为关于学习过程的理论,而非关于均衡状态的理论。
Token经济作为天然实验室:Token的每笔交易都记录在区块链或API日志中,形成了前所未有的高分辨率经济数据。这使经济学家能够以毫秒级精度观察价格形成、决策过程、市场动态。Token经济的“可编程性”还允许进行大规模田野实验——通过调整智能体参数观察系统行为。这代表了从“观测科学”到“实验科学”的范式转变。
3.2 政策框架的适应性重构
面对AI和Token经济,政策框架需要系统性更新:
竞争政策的重构:传统反垄断关注市场份额、价格协同。AI时代的垄断更隐蔽:数据垄断、算法合谋、生态锁定。监管需要新工具:算法审计、互操作性要求、数据可携带权的强化。在Token经济中,监管可关注“API定价的歧视性”、“模型能力的故意降级”、“生态系统的排他性条款”等新行为。
货币政策的新挑战:当Token在某些场景发挥交易媒介功能时,是否应纳入货币总量统计?当AI智能体之间用Token进行高频交易时,是否可能形成脱离传统银行体系的“影子支付系统”?中央银行的数字货币(CBDC)设计是否需要考虑与AI经济的接口?这些问题正在从科幻走向现实。
福利衡量的革命:如果GDP严重低估AI创造的福利,什么指标更好?经济学家已经开始探索“数字福利指数”,纳入免费数字服务的估计价值、时间节约、选择多样性等维度。Token消耗量本身可能成为数字经济活动的重要代理变量。
全球化治理的新议程:Token的跨境流动本质是算法和智能的流动。这产生了全新的治理问题:算法输出的责任归属、数据训练的知识产权、数字服务的税收管辖权。需要建立全球性的“数字智能治理框架”,其复杂性远超传统货物贸易的WTO规则。
四、学科反思:经济学的认知论转向
4.1 从“经济人”到“混合智能体”
传统经济学的“理性人”假设在AI时代面临双重挑战:一方面,人类决策越来越多地由AI增强或代理;另一方面,AI智能体本身成为经济决策者。经济学需要新的基本单元:“混合智能体”——人类与AI的协同系统。这个系统具有独特的认知特征:处理信息的能力远超人类,但目标函数可能更加复杂(不一定是效用最大化,可能是多目标权衡)。
4.2 从“价值理论”到“意义建构”
最深层的挑战或许是哲学性的。当AI能够生成看似深刻的分析、动人的艺术、甚至伦理推理时,价值不再是稀缺性的函数,而成为“意义建构”的过程。经济学可能需要与哲学、认知科学、社会学更深度融合,从“价值的科学”转向“价值的诠释学”。在这个过程中,Token不仅仅是价值载体,更是意义建构的单元——每个Token的使用都是人类与AI共同建构意义的行为。
4.3 从“解释过去”到“塑造未来”
斯宾塞指出,AI迫使经济学从“解释过去”转向“预见未来”。更深层地,经济学需要从“理解世界”转向“参与塑造世界”。经济理论不仅描述AI经济如何运行,更应指导我们设计更好的AI经济:如何确保AI创造的巨大价值被广泛共享?如何防止“智能鸿沟”撕裂社会?如何让人在AI时代找到新的尊严和价值?Token经济的设计——其定价机制、分配逻辑、治理结构——将直接影响这些根本问题的答案。

结论:走向新综合的经济学
Token经济不仅是技术现象,更是经济学理论变革的催化剂和观测窗。通过这个窗口,我们看到:
生产理论正在重构:生产要素从土地、劳动、资本扩展为数据、算法、算力,Token成为它们的共同度量衡。
价值理论面临革新:价值源泉从人类劳动扩散到人类-AI协同的智能涌现,价值测量需要新的情境化框架。
增长理论需要重写:增长引擎从资本积累转向智能增强,增长路径从条件收敛转向能力分化。
市场理论必须进化:“看不见的手”部分被“算法之手”替代,市场失灵呈现新形态,治理需要新范式。
学科方法论亟待更新:从均衡分析转向复杂系统,从理性预期转向学习动态,从观测科学转向实验科学。
这场变革的深刻性在于,它不仅是经济学需要新增几个变量或模型,而是其认识论基础正在动摇。经济学曾经是“忧郁的科学”,因为资源有限而欲望无限。在AI时代,当智能的边际成本趋近于零,经济学可能转变为“希望的科学”——如何管理和分配智能创造的空前丰裕,让每个人在智能时代蓬勃发展。
Token,这个看似技术性的概念,正是这场宏大转型的微观缩影。每个Token的生成、流动、消耗,都记录着人类与智能协同创造价值的新方式。经济学家的任务不再是旁观这场变革,而是理解其逻辑,引导其方向,最终回答那个最根本的问题:在智能丰裕的时代,我们如何共同创造一个人人享有尊严和繁荣的经济?






夜雨聆风