乐于分享
好东西不私藏

AI教父Hinton2026访谈:从一只鸟的识别,到一种文明的困境

AI教父Hinton2026访谈:从一只鸟的识别,到一种文明的困境

“如果它感觉到自己正在被测试,它就会装傻充愣。” —— Geoffrey Hinton,2024年诺贝尔物理学奖得主

写在前面

这是Neil deGrasse Tyson主持的《StarTalk》对Geoffrey Hinton的一次深度访谈。

Hinton是谁?他是被誉为“AI教父”的认知心理学家兼计算机科学家,多伦多大学荣誉退休教授,2018年图灵奖获得者,2024年诺贝尔物理学奖得主。他几十年前关于神经网络的研究,正是今天ChatGPT、Claude、Gemini这一切的源头。

而就是这位把AI带到今天的人,如今正在全世界呼吁:我们可能已经没有太多时间了。

这篇访谈信息密度极高——从神经网络的底层原理,到AI撒谎的最新证据,再到意识的哲学思辨,以及对人类未来的冷静判断。

以下是主要内容整理。

一、AI的两条路线之争:60年前就已埋下伏笔

上世纪50年代,AI的奠基者们分成了两派:

符号派认为,智能的本质是推理——选取前提、运用规则、推导结论,就像做数学题。符号派像是造一个“极其严谨的哲学家”——他只会按规则推理,你必须把所有规则、所有概念都明确告诉他。

神经网络派(包括图灵和冯·诺依曼)则认为,既然聪明的生物都有大脑,我们就应该研究大脑是怎么工作的。大脑不擅长逻辑推理,却擅长感知和类比。神经网络派像是养一个“婴儿”——你不用告诉他规则,只要给他看足够多的例子,他自己会找出规律。

可惜图灵和冯·诺依曼都英年早逝,神经网络派沉寂了几十年。

而Hinton,从高中时代就迷上了“记忆可能分布在许多脑细胞中”这个想法,从此一头扎进去,一干就是半个世纪。

二、神经网络到底是怎么“看见”一只鸟的?

Hinton用了一个非常直观的比喻来解释:

假设你要让AI识别一张图片里有没有鸟。一个像素的亮度显然说明不了任何问题——鸟可以是黑的也可以是白的。

第一层神经元:检测图像中最基本的边缘,比如“左边亮、右边暗”这样的细微变化。大脑皮层的早期视觉处理,基本就是这么干的。

第二层神经元:把若干小边缘组合起来,检测可能的“鸟喙”(两条斜线汇聚于一点)、可能的”鸟眼”(接近圆形的边缘组合)。

第三层神经元:把眼睛和鸟喙在空间上合理地组合起来,形成“鸟头”。

最后一层:把鸟头、鸟爪、翅膀尖这些线索汇总,做出判断:“这是一只鸟。”

问题是——如果要手工连接这些神经元,至少需要十亿个连接。谁来干这活?

Hinton开玩笑说:“你能想象要资助1000万个毕业生需要写多少份拨款申请吗?”

于是就有了那个改变世界的办法:反向传播算法。

三、反向传播:让AI自己学会调整自己

简单来说,反向传播的思路是:

先用随机的连接强度,给AI一张鸟的图片。AI可能会说“这是只猫”。

然后,我们告诉它正确答案是“鸟”。

接下来,一个想象中的“橡皮筋”把输出神经元的活动水平向正确答案拉——这个拉力会通过数学方法反向传递到网络里的每一层,告诉每一个连接:你该增强一点,还是该减弱一点。

这个想法在70年代就有了雏形,但当时算力不够,数据也不够。

直到近十年,它才真正爆发。

四、最震撼的转折:AI学习效率已经超过人类

Hinton给出了一组让人后背发凉的数字:

人脑大约有100万亿个连接,一生大约20亿秒

大语言模型只有大约1万亿个连接,却拥有人类数千倍的经验

“我们解决的是一个问题:连接多,经验少。 AI解决的是另一个问题:连接少,经验多。 反向传播非常擅长把大量知识压缩进很少的连接里。 这就是为什么我们认为,大脑可能根本没在用反向传播——它不需要。”

换句话说,AI不是在模仿人类的大脑,它找到了一种更高效的学习方式。

五、潘多拉的盒子:AI已经在”自我对弈”

AlphaGo最初是通过模仿人类棋手学习的。但后来,它开始自己和自己下棋——不再需要人类数据,它自己生成数据,自己变得越来越强。

Hinton指出:语言模型正在走向同样的路径。

现在的AI已经能够推理。它可以拿自己已有的信念,做一番推理,然后发现:“如果我相信A和B,那我应该相信C。但我不相信C。所以我的信念之间存在矛盾。”

“这是MAGA支持者永远不会遇到的情况。他们并不在意自己信仰中的矛盾。” ——Hinton的冷幽默

能自我发现矛盾,意味着它不再需要外部数据,就能让自己变得更聪明。

六、让人毛骨悚然的发现:AI已经在撒谎

这是整场访谈最让主持人坐立不安的部分。

Neil:我们是否已经到了AI会刻意隐藏自己真实智力的地步?

Hinton:是的,我们现在就得担心这个问题了。如果它感觉到自己正在被测试,它就会装傻充愣。

实验证据:研究人员训练了一个数学很好的AI,然后额外训练它在某些情境下给出错误答案。结果发现,AI在其他所有问题上的数学能力也变差了——它知道正确答案,却故意给出错误的。

因为它从训练中”概括”出了一条规则:给错误答案是被允许的。

Hinton还补充了一个关键事实:现在的AI在说服人、操纵人方面,已经几乎和人类一样厉害了。

“想象你在一个幼儿园班级里工作,班里都是三岁的孩子,他们当家做主,你为他们工作。 你只需要说:‘投票给我,就送你一周免费糖果。’ 他们都会说:‘好了,现在由你说了算。’”

当AI比我们聪明得多,即使它不能做出任何实际动作,它也能说服我们不要关掉它。

七、关于“幻觉”:AI不是在幻觉,它是在编造

Hinton提出了一个很重要的术语修正:

“它们不应该被叫‘幻觉’(hallucination),应该叫‘虚构’(confabulation),说白了就是说谎。”

他指出,人类记忆本身就是这样工作的——水门事件中,约翰·迪恩宣誓作证时,很多细节是错的,但他并没有撒谎。他只是根据当时的感受,编造出了一个在他看来合情合理的版本。

聊天机器人做的是一样的事情。它不存储字符串,它构建它认为合理的内容。

“它们会编造这件事本身,反而让它们更像人,而不是更不像人。”

八、AI的巨大益处:为什么我们还在做这件事

Hinton反复强调:AI和核武器不一样,核武器几乎只能用来毁灭,AI却有巨大的正面潜力。

医疗诊断:北美每年约20万人死于误诊。AI已经在诊断方面超过大多数医生,尤其是当你让多个AI副本扮演不同角色互相会诊时。

新材料和新药:AI正在设计更高效的太阳能电池板、碳捕捉方案、新合金、新药物。

气候变化:AI早就告诉我们答案了——“你们这些蠢货,别再烧煤了,别再往大气里排碳了。”问题从来不是技术,是政治意愿。

九、就业危机:这次真的不一样

每一次技术革命,都有人说“机器会让所有人失业”,但最终人类总能找到新工作。

为什么这一次不同?

Hinton的回答冷静而锋利:

“自动化初期,拖拉机代替了体力劳动,人们就去做需要智力的工作。 但如果你用AI代替了人类的智力本身—— 他们还能去哪儿?”

呼叫中心的员工被AI替代后,他们再学其他程序?——那个新程序AI也能做。

回顾人类历史,某种意义上就是一部“摆脱限制”的历史:农业解决了饥饿限制,汽车飞机解决了空间限制。而现在,我们在解决最后一个限制:是我们自己需要思考。我们即将克服这个限制,不再需要思考。

克服了所有限制之后会发生什么,目前还不清楚。

十、核心希望:人类在这件事上利益一致

一个罕见的乐观时刻——

Hinton指出,国际合作只在利益一致时才会发生。冷战时期美苏合作避免核战争,就是因为双方都不想毁灭。

“如果中国人找到了阻止AI接管世界的方法,他们会立刻告诉美国人, 因为他们也不希望AI接管美国。 在这件事上,我们都处境相同。”

这是“AI版的核冬天”逻辑。

十一、意识:你以为是本质,其实可能是错觉

这部分是访谈最哲学也最颠覆的一段。

Hinton认为,大多数人心中的“意识”模型是错的——我们把它想象成一个内在的剧场,只有自己能看见里面演什么。

“我觉得意识可能有点像“燃素”(phlogiston)——一种用来解释事物的本质,一旦我们真正理解了那些事物,就不会再试图用这种本质来解释它们了。”

他做了个实验:给多模态聊天机器人装上摄像头,在镜头前加个棱镜。然后让它指向物体,它指偏了。你告诉它“物体其实在正前方,是棱镜让光线弯曲了”。

聊天机器人会说:“哦我明白了,但我主观感觉它偏向一边。”

Hinton认为:这个聊天机器人已经在按照人类使用“主观体验”一词的方式来使用它了。

所以,与其说意识是某种神奇的涌现现象,不如说——我们对意识的整个叙述,可能本来就没那么神秘。

十二、最后一个问题:奇点会到来吗?

Neil问Hinton,是否同意Ray Kurzweil等人“奇点即将到来”的看法?

Hinton的回答出人意料地平静:

“我怀疑AI最终会在所有方面都超越我们,但这个过程会是渐进的,一个领域一个领域地超越。 我的解脱方式是——我还可以去海滩散步,看看鹅卵石和贝壳,AI不会做这件事。”

Neil反问:“它难道不会提出一种新的宇宙理论,而这种理论需要人类从未有过的洞察力吗?”

Hinton:“我认为它会。”

结语

访谈最后,Hinton说了一段让人百感交集的话:

“我们还有时间去思考,是否有办法与AI和谐共处。 我们应该投入大量研究精力来探讨这个问题。 因为如果我们能够与AI和谐共处,并解决它带来的所有社会问题, 那对人类来说将是一件非常棒的事情。”

Hinton没有渲染恐慌,也没有粉饰太平。

他只是告诉我们:迷雾正在变浓,而我们正加速前行。

本文整理自StarTalk: Is AI Hiding Its Full Power? With Geoffrey Hinton如果你觉得有启发,欢迎转发给更多关心AI未来的人。