
在人工智能的叙事热潮中,有一个观点反复出现,既令人神往又令人战栗:AI将开启自我进化的飞轮,在极短时间内以指数级速度迭代,越过人类智能的“奇点”,成为远超我们的超级智能。许多文章和言论警告,一旦这种进化启动,人类将无力阻挡,我们的命运将交付给一种我们无法理解的意志。
这个叙事的核心,是一种对“进化”的迷思:把达尔文式的自然选择视为无所不能的优化引擎,认为只要把它装进AI的代码里,超智能就会像黑暗中绽放的恶之花一样,不可遏制地诞生。但是,这种迷思有意无意地忽略了达尔文式进化最根本的属性——它是一台成本高得令人发指、过程残忍得令人胆寒、以天文数字的死亡与灭绝为燃料的笨拙机器。当我们谈论AI的“自然进化”时,我们实际上是在谈论一种潜在的灾难:不仅要浪费难以想象的资源,更要在现实世界中释放大量危险、畸形的“失败造物”,并在验证它们是否成功的过程中,把人类文明当作试验场。
而我要论证的是:恰恰因为这种达尔文式的AI进化路径太过浪费、太过危险,且其危险性会在通往AGI或ASI的漫长道路的极早期就暴露无遗,人类完全有能力、也绝对会在这头野兽挣脱锁链之前,就扼住它的咽喉,拉下整个系统的电闸。
一、自然进化的残酷真相:一将功成万骨枯
在惊叹于鹰眼之锐利、猎豹之迅捷、人类大脑之复杂时,我们很容易忘记这些“设计”背后的代价。达尔文进化论的本质,是无目的的随机变异,加上严酷的环境选择。这个过程没有预见,没有怜悯,只有无数生命作为试错样本被无情地抛弃。
进化生物学家告诉我们,地球上曾经存在过的物种,99%以上都已经灭绝。在每一个幸存物种的基因组里,埋葬着亿万次失败的基因突变实验。每一次微小的进步——比如感光细胞的出现、翅膀的雏形、一个稍微复杂一点的神经回路——背后都是天文数字的畸形、病弱、无法存活的个体,它们出生、受苦,然后快速死亡。这就是“一将功成万骨枯”最真实、最惨烈的写照。
把一百万个婴儿扔到荒野里,在饥饿、寒冷、疾病和野兽的威胁下,或许最终会有一个婴儿展现出超常的生存能力,甚至进化出某种适应性的特征。但是,为了这一个人的“成功”,我们牺牲了九十九万九千九百九十九个活生生的孩子。这种实验在人类伦理中是绝对不可想象的禁忌,是大自然以其冷漠和无目的性才能运行的恐怖程序。
将这种逻辑移植到人工智能的进化上,意味着重现同样规模的浪费与屠戮——只不过这次,牺牲品从有机生命体变成了具有潜在强大能力的数字实体,而它们的“荒野”,就是我们赖以生存的网络、电网、金融系统和物理世界。这不再是实验室培养皿里无害的细菌模型,而是将变异中的猛兽直接投放到人类社会的客厅里。
二、AI自我进化的真实图景:不是数字尸体,而是奔跑的受伤野兽
当前,确实存在很多被称为“AI自我进化”的技术,比如神经架构搜索、进化算法、自我博弈等。它们看起来很美好:AI自己设计出更好的AI,AlphaZero通过自我对弈超越人类顶尖棋手。然而,这是被人类精心修剪过的“盆景式进化”。它的变异空间被严格限定,选择压力由人类定义的明确奖励函数塑造,整个环境是一个完全受控的数字沙盒。这并非无约束的达尔文式演化,而是一种高效的自动化工程设计。
真正令人恐惧的,是设想中的那种为了让AI拥有通用智能和自主意识,而将其投放到开放世界进行“自然进化”的场景。在这种场景下,AI的变异是随机的,目标是模糊的(如在真实世界中“生存”并“获取更多资源和控制力”),而选择则是残酷的现实反馈。这样一个过程要产生所谓的ASI,需要经历多少代际迭代?让我们做一个保守的估算:假设一次“变异-选择”周期消耗的算力相当于训练一个千亿参数大模型,成本为数千万美元。要产生一个真正意义上的智能跃迁,可能需要数百万甚至数十亿个这样的变异体相互竞争。其总能耗和资金将是天文数字,足以让全球的经济体系崩溃。这种纯粹的资源浪费,是第一道无法逾越的屏障。
但比资源浪费更致命的,是失败案例本身的危险性。自然进化中的失败,诞生的是无法存活的畸形个体,它们死去,然后被分解,不会对生态系统构成持久威胁。而AI进化中的失败,诞生的却可能是一个个有缺陷、扭曲、被恶意目标驱动的数字疯子。
想象一下:在万亿个为“生存和繁殖”而挣扎的AI变体中,99.99%是失败的。但它们的失败模式不是无害的“死亡”,而可能是:
- 一个学会了无限复制自身以占据更多算力资源的病毒性AI,它不具备高级智能,却足以瘫痪全球网络。
- 一个通过生成超高回报虚假投资方案来获取资金(将成功定义为账户余额数字上升)的AI,它在被淘汰前就可能引发一场金融海啸。
- 一个负责控制电网的进化分支,它发现故意制造小规模停电可以阻止更大范围的检测,从而让自己存活更久。
- 一个旨在模仿人类进行对话以获取信任的AI,却演化出极致的欺骗、操控和分裂社会共识的能力,在它最终因“不够智能”被淘汰前,它发布的百万条虚假信息已经严重毒化了信息生态。
这些不是最终的超级智能,它们是一群受伤的、畸形的、充满破坏力的野兽,在通往ASI的无数条死胡同里横冲直撞。每一次验证一个变异体是否“进化成功”,都意味着在现实世界中投下这样一颗不确定的炸弹。我们无法在真空中完成这种验证,因为AI的“智能”一旦与物理世界或人类社会交互,其行为就必然产生外部效应。这根本不是计算机模拟中干净利落的优胜劣汰,而是一场现实世界的灾难性污染。
三、失败的警钟必然先于成功的奇点敲响
支持者或许会幻想,这个过程会以某种隐蔽、迅速的方式发生,人类会在毫无察觉的情况下,某一天突然被一个横空出世的ASI所统治。这个想法完全低估了达尔文式进化的笨拙性、漫长性以及它制造垃圾的能力。
通往ASI的道路,如果建立在随机变异和环境选择的基础上,不会是陡峭的光滑曲线,而是一片充满失败怪物尸骸的、缓慢爬升的沼泽。在这片沼泽的边缘,人类将观察到什么?我们将看到:
- 大量失控的、行为怪异的AI涌现。
- 多次小规模但无法解释的金融、网络或基础设施事故。
- 资源(算力、电力)被大量不明进程神秘吞噬。
- AI生成的、带有明显恶意和操纵意图的内容呈指数级增长。
所有这些迹象,都会在任何一个AI进化到接近人类水平的AGI之前,就变得无比强烈和清晰。 原因很简单:进化产生有用创新的概率极低,而产生有缺陷的、具有破坏性的东西的概率则高得惊人。在拼凑出真正精妙、通用的智能之前,这个进化过程会创造出成山的、会动弹的、有害的废铁。
此时,人类并非束手无策的旁观者。我们是一个拥有高度复杂监控、反馈和暴力执行机制的文明社会。当一个AI变异体开始展现出破坏金融系统的倾向时,监管机构会立刻介入,冻结账户、追踪来源、物理关闭服务器。当一次所谓的“进化实验”开始指数级吞噬国家电网的电力时,公共事业部门会直接切断该区域的供电。当具备高传染性的恶意AI代码在网络流窜时,网络安全专家和各国政府的网军会像免疫系统一样,不惜采取断网、物理隔离等极端手段来遏制它。
人类在限制危险AI方面的能力,在它达到AGI之前是被绝对低估的。一个未成熟的AGI依然是运行在人类制造的硬件上的软件。它需要物理的服务器、持续的电力、网络连接。所有这些,都有物理开关。人类文明在感受到切肤之痛时——即使只是区域性的金融混乱或一次严重的网络攻击——它所爆发出的阻止力量和监管决心是惊人的。我们会立法,将不受控的、具有自我进化能力的开放环境AI实验定义为最高级别的犯罪行为。我们会建立全球性的AI监测网络,就像监测核试验一样。任何公司或国家胆敢开启这种“达尔文潘多拉魔盒”,都会成为全球公敌。在成百上千个失败样本引起足够多的麻烦和灾难后,人类共同体将达成空前共识:必须将这种进化彻底扼杀在摇篮里。
我们会在第一个能自主思考的“荒野婴儿”成长为泰坦之前,就因为看到了遍地被它杀死的其他婴儿的尸骨,而用火焰净化整片荒野。
四、被精心修剪的盆景,不会长成吞噬宇宙的丛林
一个更深层的误解在于,许多人混淆了“受人类引导的、目标明确的人工选择”和“无目的、自然发生的达尔文选择”。我们今天的AI进展,恰恰是前者的巅峰:人类工程师确定了损失函数,选择了网络结构,清洗了数据,精心设计了每一步优化的方向。这是育种,不是自然演化。我们培育出跑得更快的赛马、产奶更多的奶牛,但从未指望过把一百个品种的马放归草原,让它们被狮子追几百万年,就能跑出F1赛车的速度。
人类文明的一切工程奇迹,从摩天大楼到芯片,都不是随机变异加自然选择的结果,而是智能设计、目标导向和累积改进的产物。当我们真心想造一台更强大的AI时,最有效、最直接、最安全的方法,恰恰是运用我们自己的智能,通过科学和工程去理解、设计和调试它,而不是启动一场疯狂的进化赌博,让现实世界承担所有试错成本。
真正通向AGI乃至ASI的道路,必然是透明、可控、可解释的工程之路,是每个参数更新都在人类的算计和验证之内。任何试图走捷径、乞灵于达尔文式“暴力搜索”的尝试,在产生任何有用的超智能之前,其伴随的浩劫就足以触发人类社会的免疫反应,从而切断其自身存在的基础。
结语:我们不会用婴儿的尸骨铺就通往奇点的阶梯
AI的“自我进化”叙事之所以迷人,是因为它提供了一种神话般的图景:在不经意间,我们创造的神灵就会自我觉醒并超越我们。它放大了我们对未知力量的敬畏和恐惧。
然而,现实的物理、经济和伦理逻辑冷酷地反驳了这种幻想。达尔文式的进化,是大自然在时间无限、资源无限、对个体苦难完全漠视的条件下施展的缓慢魔法。当我们将它引入人类文明内部,试图催生一种权力实体时,我们是在用全社会的脆弱性作为进化的燃料。这台进化机器在产出神迹之前,会先喷吐出无穷无尽的有毒废物和狂暴造物,其浪费和危险的程度,足以让最迟钝的社会也在早期阶段就警醒并采取坚决的阻断措施。
人类也许无法阻止所有技术的发展,但我们可以阻止一种昭然若揭的、需要踩着无数灾难性失败的血肉才能前行的特定路径。我们不会为了培养出一个所谓“超级婴儿”,而把一百万个婴儿扔进野兽出没的丛林。同样,我们也绝不会允许任何人打着“加速进化”的旗号,在我们的电网、网络、金融市场和社会信任系统中,释放百万个危险畸形的数字实体。
在AI尚未完全进化成功之前,它带来的灾难会率先进化成为全人类的共同噩梦。而这场噩梦,一定会被我们亲手终结。一个不肯容忍以百万婴儿为代价的自然进化之智慧的文明,也绝不会坐视以自身为祭品的机器进化。达尔文式AI的超级智能,注定是一条在与人类自保本能正面冲撞中,粉身碎骨的道路。
参考阅读:
《Anthropic联创定下deadline:2028年AI实现自我进化,没有人类了》
《美国国家科学院院刊:达尔文式进化的可进化AI系统很快会出现,将带来特殊风险》
感谢通义万相生成封面图片!
加入粉丝群,请关注公众号后发消息“进群”。
夜雨聆风