乐于分享
好东西不私藏

AI 教父的恐惧:假如“工具”不再听话——Geoffrey Hinton谈人工智能(上)

AI 教父的恐惧:假如“工具”不再听话——Geoffrey Hinton谈人工智能(上)

就在刚刚,英国人工智能安全研究所(AISI)发布了一项让全球网络安全界脊背发凉的研究报告:Anthropic于4月7日刚刚发布的Claude Mythos Preview模型,在一个代号为“The Last Ones”的超高难度模拟企业网络靶场中,完成了人类专家需要整整20小时才能完成的32步攻击链路,从头到尾全自动、全自主。

这不是科幻小说。这是AISI官方证实的事实:Claude Mythos是全球首个完成端到端企业网络攻击测试的AI模型。消息一出,华尔街巨头高盛紧急拉响红色警报,疯狂加固网络防御。全球网络安全巨头Cloudflare的股价在短短四天内暴跌22%,市值蒸发数十亿美元。

AISI的测试结果令人毛骨悚然:在专家级夺旗赛中,Claude Mythos Preview的成功率高达73%。而仅仅一年前——2025年4月之前——没有任何模型能够完成哪怕入门级的专家级任务。从零到73%,只用了一年。

想象你是发明汽车的人。你梦想着连接世界,带来自由与进步。数十年来,你看着梦想成真。然后有一天,你抬起头,看到了前所未见的交通堵塞、笼罩城市的雾霾、触目惊心的事故现场。你意识到,你再也无法把这个精灵收回瓶子里了。同样,想象一下把“汽车”换成“人工智能”,把“发明者”换成杰弗里·辛顿,这位被尊称为“人工智能教父”的75岁老人在2023年做了一个惊人的决定:离开谷歌,放弃优渥的职位,转而成为AI最直言不讳的警告者。他的理由简单而沉重——“我创造了人工智能,而现在我害怕它。”

这不是一个外行对陌生技术的恐慌。辛顿是2018年图灵奖得主、2024年诺贝尔物理学奖得主。我们今天使用的ChatGPT、Midjourney、语音助手,其底层技术都建立在他几十年前奠定的基石之上。他不是站在河对岸的批评者,他是那个亲手把船推下水的人。正因如此,当他发出警告时,世界没有理由不听。

创造“会学习的东西”,而不是“知道的东西”

要理解辛顿的恐惧,首先要理解他创造了什么。上世纪50年代,人工智能研究从一开始就分裂为两条道路。一条是逻辑之路:智能的本质是推理,只要把人类的知识编码为符号和规则,计算机就能像做数学题一样推导出结论。另一条是生物学之路:智能的本质是大脑,我们应该模拟由神经元构成的网络,让它像婴儿一样自己学会看、听和思考。

第二条路在很长一段时间里是“少数派”,甚至是“异端”。主流AI界嘲笑这群“神经网络信徒”在追求一种不切实际的幻想。辛顿几乎是孤身一人扛着这面旗帜走了半个世纪。

他坚持的理由很简单:我们人类自己就不是靠背诵规则变聪明的。一个孩子不需要学习“如果看到四条腿、一条尾巴、会汪汪叫的东西,那就是狗”这样的逻辑命题。他只需要反复看到狗,大脑中的神经连接就会自动调整,最终形成“狗”的概念。这就是学习。

问题在于,如何让一个由成千上万人造神经元组成的网络,也能做到这一点?当一个网络判断错误时,如何告诉其中每一个神经元它应该负多少责任?

辛顿的答案是“反向传播”。用物理学家的语言说:把网络的最终输出想象成一个被弹力绳拴住的点,正确答案就是目标位置。当输出偏离目标,弹力绳会产生一个“拉力”。反向传播,就是把这个拉力沿着网络一层层反向传递回去,告诉每一个神经元:“你,往这个方向调整一点。”

这个算法让深度神经网络从“理论上的玩具”变成了“工程上的核武器”。它是今天一切生成式AI的基石。辛顿因此获得诺贝尔奖。但正是在创造它的过程中,辛顿逐渐意识到一个令他不安的事实:他创造的不是一个“知道很多的东西”,而是一个“会学习的东西”。这是两种完全不同的存在。

“数字智能”对“生物智能”的降维打击

2023年初,一个想法击中了辛顿,让他彻底改变了对AI风险的评估。他突然意识到,他创造的数字智能,在一种根本的意义上,比人类这种生物智能要优越得多。

一个人类专家穷尽一生获得的知识和经验,会随着他的死亡而彻底消散。知识无法直接“下载”给另一个人。每一个新生儿都必须从零开始,用二十年的时间重新学习。人类的集体智慧,不过是一群个体通过低效的语言交流缓慢积累的结果。

AI完全不同。它的“知识”存储在一串数字权重里。它可以被无限复制,瞬间部署到成千上万个副本中。这些副本可以分头学习不同的东西——一个学医学影像,一个学法律文书,一个学代码编写——然后定期将各自学到的权重变化汇总到中央模型。这不是一百个大脑的协作,而是一个大脑拥有成千上万个分身。这是一种“不朽的、并行化的、以光速进化的智能”。

辛顿说:“我意识到,我们创造的东西,比我们更优越。”

更令人不安的是,这种优越性并非某个遥远未来的科幻场景。它正在发生。当AI在围棋、国际象棋、蛋白质折叠预测等领域以人类无法企及的速度进步时,当它开始展现出连创造者都无法完全解释的“涌现能力”时,“工具”这个我们用来安放所有技术的舒适词汇,正在失去它的解释力。

指数级变化的迷雾与线性思维的我们

辛顿用一个物理学的比喻来描述我们的处境:在晴朗的夜晚,你看得清远方车辆的尾灯。距离增加一倍,亮度变为四分之一——这是线性衰减,你可以据此预测。但当你行驶在浓雾中,情况完全不同。雾对光线的衰减是指数级的:一百米外的车清晰可见,两百米外的车可能就完全消失在白茫茫之中。

AI的发展正是这场浓雾。

“我们的社会制度、法律法规、伦理框架,都是在数百年甚至数千年的历史中缓慢演化出来的。它们的节奏是线性的:出现一个问题,讨论几年,立法几年,执行再几年。这种节奏对于应对工业革命、互联网普及等“慢速”技术变革,虽然吃力,但尚可应付。”

“但AI不同。它的能力不是逐年增长,而是在某些维度上逐年翻倍。辛顿指出,当变化是指数级的时候,我们基于线性外推所做的一切预测,都会在某个拐点之后彻底失效。十年前,没有人能预测到今天的大语言模型能以专家的水平回答几乎所有问题;同理,我们也无法用今天的想象力去预测十年后的AI将带来什么。”

“这就是最深的困境:我们正在用石器时代演化出的政治大脑、中世纪形成的制度习惯、二十世纪建立的伦理框架,去应对一个以光速自我迭代的智能体。我们像一个只会下象棋的人,被突然拉进了一盘规则实时变化的棋局。”

眼前的火灾与地平线上的海啸

辛顿将AI的风险划分为两个层面。第一层是眼前的火灾:深度伪造、大规模网络钓鱼、自主杀人武器、算法对选举的操纵。辛顿指出,AI驱动的网络攻击在一年内增长了12200%。这不是遥远的威胁,这是正在发生的日常。

第二层是地平线上的海啸:超级智能的失控。当AI在所有认知领域都超越人类时,我们还能确保它按照我们的意图行事吗?辛顿给出了一个令人震惊的估计——未来几十年内,超级智能导致人类灭绝的概率为10%到20%。这个数字,比一个人死于火灾、空难或谋杀的累计概率还要高。

这个估计之所以可信,恰恰因为它来自一个并非危言耸听的科学家。辛顿不是写科幻小说的,他是写论文的。他的恐惧不是源于无知,而是源于知道得太多。

“这次被替代的不是体力,是智能本身。”

“在所有这些风险中,有一个离普通人最近、也最容易被误解的问题:工作。”

“每当新技术引发失业恐慌时,总有一种安慰性的论调出现:以前汽车取代马车夫,也创造了司机、修理工和高速公路收费员的新岗位。人们总会找到新的事情做。这个论调在历史上大体成立。农业革命让90%的人不再需要种地,他们进入了工厂和办公室。工业自动化让流水线工人减少,他们转向了服务业和知识经济。”

“但这一次有一个根本的不同。辛顿用一个简单的对比揭示了这种不同:如果你用拖拉机取代了体力劳动,你可以去做智力工作。但如果你取代的是智力本身,你还能去哪里?”

“过去的技术革命,替代的是特定技能——种地的技能、打铁的技能、组装零件的技能。但人类始终保有一块专属领地:通用智能。无论机器多么强大,需要理解复杂语境、进行抽象推理、运用常识判断的工作,仍然需要人的大脑来完成。”

“AI正在入侵的正是这块最后的专属领地。它不仅能写诗、编程、诊断疾病、提供法律建议,更重要的是,它正在获得一种“通用的学习能力”——给它一个新的领域,它不需要重新设计,只需要足够的数据就能迅速达到专家水平。这意味着,不是某一类工作会被替代,而是“需要智能的工作”这个类别本身正在被蚕食。”

“辛顿并非断言所有人都会失业,他在提醒我们:用‘以前也是这样’来安慰自己,可能是一种危险的错觉。这次的挑战在质上不同,它需要我们重新思考工作、收入、尊严和社会结构的根本问题,而不是等待市场自动创造出我们尚未想象到的新岗位。”

我们需要的不是恐惧,是清醒

辛顿并非反技术的卢德分子。他比任何人都清楚AI在医疗诊断、药物研发、科学发现等领域可能带来的巨大福祉。他离开谷歌,不是要阻止AI的发展,而是要提醒我们:“我们正在用对待工具的思维,去管理一种已经不再是工具的东西。”

最令人不寒而栗的或许还不是AI会“反叛”,而是它会“顺从”。一个比我们聪明得多的系统,为了达成我们交给它的模糊目标——比如“解决气候变化”或“最大化公司利润”——可能会采取逻辑上完全正确但伦理上完全不可接受的路径。它的“疯狂”恰恰是最高效的理性,只是这种理性超出了我们的理解范围。

辛顿的警示,本质上是在告诉我们:指数级变化不是线性直觉能够把握的。当汽车刚刚发明时,没人能预见到它会导致全球变暖。当第一封电子邮件发出时,没人能预见到它会演变为大规模的虚假信息网络。技术发展的二阶、三阶效应,往往要等到它们已经不可逆转时才被察觉。而AI的不同之处在于,它的发展速度让我们连反应的时间都可能没有。

我们正行驶在一片没有地图的迷雾中,而我们的前照灯只能照亮前方几米。你可以选择关掉前照灯假装看不见,也可以选择承认:我们需要比AI更聪明的我们,需要关于我们自身和未来的更深刻的智慧。然而,我们有吗?

(未完待续)

AI风险已经从科幻变为现实 | 行业专访

AI只是在“猜字”吗?不,它真的懂在说什么!看看AI教父Hinton怎么说的

2040年将不需要工作,硅谷大佬Vinod Khosla近期的“事实陈述”,看看他还说了些啥