乐于分享
好东西不私藏

为什么AI越强,哈耶克越该被重新阅读

为什么AI越强,哈耶克越该被重新阅读

1971年,智利首都圣地亚哥,一间六角形控制室里,七把旋转椅环绕着一块巨大的屏幕。屏幕上显示着全国的经济运转状态——产量、库存、物流、劳动力。一个英国控制论专家坐在中央,用500台电传打字机,试图让一台计算机「看见」整个国民经济。

那是1971年,没有互联网,没有个人电脑。

2025年,硅谷的某处数据中心里,几十万块GPU正在跑着最新的大语言模型。它们的训练数据覆盖了人类有史以来所有数字化知识,其参数规模已经超过了任何人脑能理解的极限。开发者的终极愿景是:造出一台能替所有人做决策的机器。

这两件事,相隔54年。内核一模一样。

1971年的智利失败了。2025年的这一批人,正在重蹈覆辙——而他们大多数甚至不知道这段历史。

这就是为什么,在AI最热的年份,我们需要重新读哈耶克。


01 哈耶克是谁

弗里德里希·哈耶克(Friedrich Hayek),1899年生于维也纳。

他的人生经历了二十世纪几乎所有的大事件:一战时在意大利前线当炮兵观测员,亲眼看着奥匈帝国瓦解;在德国目睹恶性通货膨胀,目睹魏玛共和崩溃;从经济学门外汉一路走到伦敦经济学院教授。

他最有名的论战对手,是约翰·梅纳德·凯恩斯。

1936年,凯恩斯出版《就业、利息与货币通论》,提出一套完整的政府干预理论。哈耶克针锋相对,认为政府干预会扭曲价格信号,最终导致经济危机。两人在伦敦开展了一场著名论战,史称「凯恩斯大战哈耶克」。

结果是凯恩斯赢了——大萧条的背景下,人们需要快速解决方案,政府刺激听起来比「让市场自己调节」更实在。哈耶克输得彻彻底底,被主流经济学界遗忘长达30年

直到1974年,诺贝尔经济学奖宣布获奖者:弗里德里希·哈耶克。

那一年颁奖词写得很克制,但瑞典记者注意到一个细节:哈耶克得知自己获奖后,最担心的不是荣誉,而是「我的书会不会因为这个被更多人买走,然后他们读了发现我其实在反对通胀」。

他一辈子都在担心人类犯一个根本性的错误。

这个错误,2025年的AI开发者们正在重犯。


02 没有人需要知道一切

1945年,哈耶克发表了一篇论文,标题是《知识在社会中的运用》(The Use of Knowledge in Society)。

这篇文章,大概是20世纪最重要的经济学论文之一。

它的核心观点,简单到近乎简单:

价格,是信息的载体。

举例:2024年,中国东北的大豆产量因为天气原因下降了10%。这个消息,不需要中央统计局调查,不需要农业部开会,不需要总理批示——它直接反映在大豆的收购价格上。全国各地的农民、饲料厂、超市……所有人在不知情的情况下,自动接收到了这个信息,并做出调整。

再举例:你去菜市场买菜,发现猪肉涨价了。你不需要知道是因为猪瘟、饲料涨价还是物流中断——价格上涨本身就是所有这些信息的压缩包,它告诉你:「猪肉稀缺,动用替代品或减少购买。」

哈耶克说,这就是价格机制的奇迹:在一个运转良好的经济体系里,没有一个人需要知道全部信息。 每个参与者只知道跟自己相关的那一小部分,价格替他们传递了其余一切。

这是自发的秩序(Spontaneous Order)。不是任何人设计的,是无数个体的分散决策,通过价格这个信号机制,自行组织出来的。

因为中央计划者面临一个根本性的困境:它不可能掌握分散在千万人手中的局部知识。

天气预报员不知道你今天出门带不带伞。超市经理不知道隔壁街新开了一家竞争对手。政策制定者不知道某条法规会在某个小镇引发什么样的连锁反应。

这不是技术问题。这是知识分散在社会中、无法被集中收集的结构性事实。


03 AGI = 全知全能计算机的新诱惑

2025年,AGI(通用人工智能)成了硅谷最热的词。

它的定义有很多版本,但本质上都有一个共同内核:造出一台比所有分散个体更聪明的中央大脑。

它能诊断你的病,它能替你做投资决策,它能帮你规划职业,它能替你管理公司——它知道的比你多,它算得比你准,它判断得比你好。

这是1971年Cybersyn的终极升级版:当年阿连德想用500台电传打字机控制智利经济;今天的大厂想用几百万块GPU和全网数据训练一个控制一切经济活动的超级大脑。

推荐算法已经是一个初级版本。

你以为你在抖音刷视频是你自己的选择?你以为你在淘宝买货是自由意志?你以为今日头条给你推的新闻是客观的?

不。你看到的内容,是算法认为「最能留住你注意力」的内容。这个算法不关心你的自由,它只关心点击率。它已经替你做了选择——不是强制,是推荐。温水煮青蛙式的。

哈耶克如果还活着,会说:这就是新型的中央计划。

只不过旧中央计划用的是政府权力,新中央计划用的是注意力。旧的是强迫你服从,新的算法是「你以为你在自由选择,其实你的选择空间已经被预设了。」

你以为你在逛街,其实你走在算法铺好的路上。


04 致命的自负

1988年,哈耶克在生命的最后一年,出版了一本书:《致命的自负》(The Fatal Conceit)。

这本书的副标题是:「社会主义的误区」

但它的核心论点,其实超越了社会主义本身:

人类「以为自己能设计一切」的幻觉,是文明面临的最大危险。

不是因为中心不够聪明。是因为聪明本身解决不了知识分散这个结构性问题。

就算AGI真的能收集全世界的数据,它依然无法获取那些没有数字化的知识:你对妻子的了解,你对孩子的判断,你所在街道的交通规律,你工厂里老机器的脾性……这些知识是情境化的、无法言传的、私人的。

哈耶克把它们叫做「局部知识」(Local Knowledge)。它们的总和,远远超过任何中央大脑能处理的量级。

而一旦我们放弃分散决策,把所有权力交给一个「全知的中心」——不管这个中心是政府,是算法,还是AGI——我们实际上是在放弃人类的自由本身。

哈耶克在《通往奴役之路》(1944)中写得清清楚楚:

「通往奴役的路,往往是善意铺成的。」

但那条路的尽头,不是效率,是强制。不是因为它做不到。而是因为就算做到了,代价是失去自由。


05 普通人能做什么

说到这里,读者可能会觉得虚无:大趋势我改变不了,AGI该来的还是会来,我能做什么?

第一,理解分散智慧的价值。

当你面对一个「全知全能系统」的诱惑时——无论是AI助手、AI投资顾问还是AI管家——先问一个问题:它真的知道什么?它不知道什么?

它不知道你的价值观,不知道你家人的期待,不知道你公司那条老流水线的脾气。这些局部知识,才是你做出好决策的关键。

第二,支持开源和去中心化。

哈耶克相信分散智慧。但现实中,大模型正在走向越来越集中的闭源模式。只有少数公司有能力训练最强大的模型,然后由他们来「喂养」全人类。

开源社区的存在是一种制衡力量。当DeepSeek选择开源时,它让更多人有机会接触强大的AI工具,而不是把权力集中在几个巨头手里。

第三,警惕「全知叙事」。

当任何人告诉你,「这套系统知道一切,它能替你做所有决定」的时候——无论是政府、AI公司还是某种意识形态——请保持警惕。

这是1971年Cybersyn的教训。这是2025年AGI狂热中的教训。这是哈耶克用一辈子在警告的事情。


结语

1971年,智利的控制室里没有人觉得自己在做坏事。他们真诚地相信,用技术可以解决社会问题,用计算机可以替代人的判断。

2025年,硅谷的数据中心里,同样没有人觉得自己在做坏事。他们真诚地相信,AGI会让人类更幸福,更高效,更安全。

哈耶克会说:问题不在于你们的技术够不够强。问题在于你们在追求一个根本不可能兑现的承诺——而且就算兑现了,代价也是你们最珍视的东西。

下一次有人告诉你,「相信AI,它知道什么对你最好」的时候,想想那个六角形的控制室。

54年了,我们还没有学会这堂课。

也许是时候学一学了。


参考来源:小宇宙播客「墙裂坛」EP.3《哈耶克:当AI无所不知,谁来做决策?》,2026年3月23日

延伸阅读:

《通往奴役之路》(1944)

《知识在社会中的运用》(1945)、

《致命的自负》(1988) —— F.A. 哈耶克

文章由AI辅助生成