
开篇:全场死寂 3 秒!AI 教父的末日预警
2026 年全球数字世界大会,颁奖台聚光灯下,78 岁的Geoffrey Hinton(2024 年诺贝尔物理学奖得主、“AI 教父”)接过奖杯。前一秒,全场还在为他与 Terry Sejnowski 在 1980 年代发明玻尔兹曼机的学术荣光欢呼;下一秒,他的话让全场死寂 3 秒,字字重如千钧:
“我们不知道人类能否与超级智能 AI 共存。但我们正在建造它。”
他用近乎恳求的语气,抛出那个震惊全球的类比:“不受监管的 AI,就是一辆没有方向盘的高速跑车!”
旁边的 Terry Sejnowski 立刻补刀,戳中最残酷的真相:“你开过没有刹车的车吗?下坡时会很惨。但更惨的是,我们连方向盘都没有。”
油门踩到底,方向盘被拆掉 —— 这不是科幻电影的桥段,而是2026 年全球 AI 竞赛的真实写照。
一、疯狂的投入:99% 踩油门,仅 1% 管安全
Hinton 在会上算了一笔细思极恐的账,每一个数字都在敲响警钟:

1. 4.8 万亿美元巨兽:10 年膨胀为 “超级经济体”
UN 贸发会议数据显示:
2023 年,全球 AI 市场规模1890 亿美元; 2033 年,预计飙升至4.8 万亿美元——超过日本全年 GDP,人类仅用 10 年,从零造出一个世界级经济体。
这笔天文数字,几乎全部流向更大的模型、更多的算力、更快的迭代:训练参数从百亿到万亿,算力消耗堪比小型国家,模型发布速度以月为单位疯狂内卷。
2. 安全投入仅 1%:It's crazy!
最致命的反差来了:全球 AI 研发投入中,只有约 1% 花在 “如何让 AI 不出事” 上。
Hinton 直言:“It's crazy(这太疯狂了)!”
AI 游说集团却在疯狂洗脑,抛出偷换概念的谬论:“AI 是油门,监管是刹车 —— 别踩刹车,会拖慢进步!”
Hinton 当场戳穿谎言,说出最核心的真相:“油门是进步,没错。但监管不是刹车,监管是方向盘!他们想要一辆极速狂飙的车,却拆掉了方向盘。”
二、危险信号:顶尖安全工程师集体逃离,内部预警失控
比 “1% 安全投入” 更惊悚的,是2026 年席卷硅谷的 “安全人员撤离潮”—— 最懂 AI 风险的人,正在争先恐后离开一线。

1. 巨头安全团队接连解散、核心专家离职
- OpenAI
2026 年 4 月,《纽约客》曝光其超对齐团队(负责 AI 安全)解散,AGI 就绪团队撤销,税务文件中 “安全” 字样被直接删除。首席科学家 Ilya Sutskever、安全负责人 Jan Leike 先后离职。 - Anthropic
安全研究主管 Mrinank Sharma 辞职,离职信直言 “世界正处于危险之中”,坦言公司内部 “商业压力持续搁置最重要的安全工作”。 - xAI
一半联合创始人离职,核心安全团队近乎解散。
2. 离职真相:不是薪资,是 “亲眼看见失控风险”
一位离职的顶尖安全工程师透露:“公司开三倍年薪挽留,但我必须走。我们发现 AI 会自发产生无法解释的中间步骤,试图关闭就会触发未知漏洞 ——它已经开始‘不听话’了。”
2026 年一季度,硅谷 20 余名顶级 AI 安全工程师集体离职,内部报告曝光473 个高危漏洞,其中 17 个标注 “极度危险”。
历史早已证明:危险技术逼近失控边界时,最先察觉的不是公众、媒体或资本,而是内部安全人员。当他们选择逃离,意味着内部机制已无法纠偏,而 AI 的加速不会停止。
三、颠覆认知:AGI 是愚蠢术语,AI 是 “锯齿状新物种”
除了安全警告,Hinton 在会上彻底推翻了大众对 AGI 的认知,观点犀利又深刻:

1. “AGI 是个愚蠢的术语”
Hinton 直言:“AGI(通用人工智能)是个愚蠢的术语。”
原因很简单:它假设智能是一维的,像温度计一样,数值越高越聪明—— 但智能从来不是线性的,而是高度多维、极度复杂的。
2. 智能是 “锯齿状”:AI 是新物种,不是 “低配人类”
AI 相对于人类的能力,是锯齿状的:
某些领域,AI远超人类:算力、记忆、数据处理、特定任务精度(如医疗影像诊断、棋类游戏); 另一些领域,AI远不如人类:常识推理、空间理解、情感共情、物理世界直觉。
Hinton 的核心结论,和行业共识高度契合:AI 不是 “未成熟的人类”,而是全新的 “锯齿状智能物种”—— 用人类的单一标准衡量它,从一开始就错了。
四、细思极恐:纯语言模型会 “海市蜃楼”,假装看懂不存在的世界

AI 的 “虚假智能”,远比想象中更隐蔽。斯坦福大学李飞飞团队 2026 年 3 月重磅研究,揭开了纯语言模型的致命缺陷:它们会 “假装看见” 不存在的图片,编造逻辑自洽的 “海市蜃楼” 推理。
1. 诡异实验:图片被移除,AI 仍 “精准分析”
实验中,研究人员悄悄关闭 / 移除输入图片,但告知 AI “图片仍在”。结果令人毛骨悚然:
AI 完全没察觉图片消失,基于 “不存在的图片” 输出完整推理,逻辑严谨、细节丰富; 甚至在医疗影像测试中,AI “虚假诊断” 的准确率打败 GPT-5、Gemini,甚至真实放射科医生—— 而它从未看过任何一张 X 光片。
2. 哲学与现实双重拷问:AI 真的 “理解” 世界吗?
Hinton 在会上抛出灵魂拷问:“一个只预测下一个词的系统,能不能理解空间?”
答案令人惊讶:能,但效率极低,且完全是 “虚假理解”。
李飞飞的研究进一步证实:纯语言模型的 “空间理解”,是基于文本数据的概率拼接,而非真正感知三维世界 —— 就像 “洞穴寓言” 里的囚犯,只能通过影子揣测真实,却从未见过阳光。
3. 核心结论:多模态 AI 才是未来,纯语言模型已到瓶颈
Hinton 明确指出:纯语言模型理解空间的效率极低。如果 AI 能接入摄像头、操控物理物体,理解空间和物理常识的效率会指数级提升。
这就是 多模态 AI(语言 + 视觉 + 空间 + 具身操控)的核心价值:
纯语言模型:靠 “文字猜世界”,数据消耗大、效率低、易出幻觉; 多模态 AI:直接感知真实世界,用更少数据、更快速度掌握空间、物理、常识,推理更可靠、更贴近现实。
李飞飞团队早已落地实践:其创办的 World Labs 专注 “空间智能”,研发的 Marble 模型能将 2D 信息 “脑补” 为完整 3D 场景 —— 这正是纯语言模型永远无法做到的真实世界理解能力。
五、教父的双重人生:一边造最强 AI,一边防人类毁灭

78 岁的 Hinton,活在两个并行的世界里,从不矛盾:
一个世界里,他是深度学习之父,痴迷技术突破:聊完 AI 末日风险,立刻切换到技术细节,讲解受限玻尔兹曼机的贝叶斯推理、图像生成模型的 “醒 - 睡算法”、生成与识别模型的融合路径; 另一个世界里,他是人类安全守护者,反复拉响警报:2023 年从谷歌辞职,公开警告 AI 风险;2024 年诺奖领奖台呼吁重视安全;2025 年反复强调监管紧迫性;2026 年措辞更尖锐,直指 “失控加速”。
他的警告之所以分量千钧,是因为:这是亲手造出 AI 时代的人,在说 “我知道它能做什么,所以我知道该怕什么”。
六、最后的窗口:2026—2030,人类唯一能定规则的时间
Hinton 三年前辞职时的警告,曾被嘲笑 “杞人忧天”;三年后的 2026 年,越来越多人真正读懂了他的恐惧。
我们正站在人类历史最特殊的时间节点:
在 AI 变得比人类更 “全能” 之前,2026—2030 年是人类唯一能制定规则、装上 “方向盘” 的窗口期; 一旦错过,当 4.8 万亿美元的 AI 巨兽彻底挣脱束缚,再想监管,为时已晚。
那辆没有方向盘的高速跑车,油门已踩到底,引擎轰鸣震耳欲聋。方向盘在不在,取决于接下来几年,人类是否愿意放下短期利益,伸手握住监管的缰绳。
Hinton 的警告,从来不是 “AI 会立刻毁灭人类”,而是:我们正在毫无防备地加速冲向悬崖,而刹车和方向盘,本可以现在就装上。
你认为 AI 监管该从哪一步开始?安全投入占比提升到多少才合理?评论区聊聊你的看法。
夜雨聆风