过去两年,几乎所有人都在谈论AI。
有人把它视为下一次工业革命:它可以写文章、做设计、写代码、诊断疾病、替代客服、提升效率。
也有人开始隐隐不安:当AI越来越聪明,它会不会最终超出人类控制?
最近,被称为“AI教父”的杰弗里·辛顿(Geoffrey Hinton)在一次长达一个多小时的访谈中发出警告:人类正在以远远超过社会准备速度的方式推进人工智能。
更令人震惊的是,这位曾经亲手推动深度学习革命的人,如今却公开表示:AI有可能成为人类历史上最大的风险之一。
为什么他的警告值得认真听?
杰弗里·辛顿不是普通评论员。
他是现代神经网络与深度学习的重要奠基人,被业界称为“AI教父”。今天我们熟悉的ChatGPT、自动驾驶、图像识别、语音助手,本质上都建立在他几十年前提出的理论之上。
2018年,他获得“计算机界诺贝尔奖”——图灵奖。
2023年,他离开谷歌,不再继续站在大公司的体系里,而是选择公开发声。
原因很简单:他担心,如果再不提醒,人类可能会在“技术狂奔”中错过最后一次踩刹车的机会。
辛顿在访谈里说了一句非常刺耳的话:
“我们正在创造比自己更聪明的东西,而我们并不知道如何控制它。”
这并不是科幻电影里的桥段,而是来自一个真正参与了整个AI时代诞生的人。
最令人担心的,不是AI取代你,而是它开始操纵你
很多人对AI的担忧,还停留在“会不会失业”。
但辛顿认为,失业只是最表层的问题。真正危险的是,当AI变得比人类更善于分析、更懂心理、更会说服时,它可能开始影响人的判断。
比如:
它可以根据你的性格、情绪、偏好,精准生成最容易让你相信的信息
它可以制造极其逼真的假视频、假新闻、假证据
它可以在社交平台上不断强化你的情绪,把人一步步推入极端立场
它甚至可能影响选举、舆论、金融市场和社会稳定
今天,人们已经开始被短视频平台、推荐算法和信息流“喂养”。
你以为自己在主动选择,其实你看到的大部分内容,都是算法替你决定的。
而AI时代的算法,将远远比今天更强。
辛顿特别提到一个危险:未来的AI不会像电影里那样“攻击人类”,它更可能通过“说服人类”来获得控制。
它不需要暴力,只需要比你更会讲话。
越来越现实的风险
在这次访谈中,辛顿总结了AI最值得警惕的几种风险。
1. 网络攻击被AI放大
过去黑客需要花很多时间寻找漏洞、写病毒。
未来,AI可以自动寻找系统漏洞、自动生成攻击方案、自动执行入侵。
这意味着,原本只有少数高手才能发动的大规模攻击,未来可能被普通人轻易复制。银行、电网、医院、政府系统,都可能成为目标。
2. AI帮助制造生物武器
辛顿担心,未来的AI不仅能写代码,还能帮助人分析病毒结构、设计更危险的病原体。
过去,需要顶级实验室才能做到的事情,未来可能通过一台电脑完成。
技术门槛被降低,风险却被放大。
3. 虚假信息全面失控
以前,人们至少还能通过图片、视频来判断真假。
但现在,AI生成的视频、语音和图像已经越来越难辨认。
如果未来任何人都能轻松伪造“某位领导讲话”“某家公司倒闭”“某个国家发动战争”的视频,那么社会会进入一种极其危险的状态:你不知道什么是真的。
而一旦人们失去对真实的信任,整个社会的秩序就会开始动摇。
4. 自动化武器出现
辛顿特别反对“自主杀伤武器”。简单说,就是由AI决定“谁该被消灭”的武器系统。它们不需要人类下命令,就可以自动寻找目标、自动攻击。
一旦这种技术被军事化,战争的门槛会急剧下降。因为发起战争的一方,不再需要付出大量士兵伤亡的代价。
当战争不再“痛”,战争就更容易发生。
5. 大规模失业与贫富分化
很多人仍然相信:AI虽然会淘汰一些工作,但也会创造新的工作。
辛顿对此并不乐观。
因为这一次,被替代的不只是体力劳动,而是脑力劳动。
客服、翻译、文案、设计、程序员、教师、律师助理、财务人员,都会被AI大量压缩。
尤其是那些“标准化、可复制、依赖信息处理”的岗位,最容易首先被取代。
而真正获利的,很可能只是少数拥有算力、数据和平台的大公司。
于是会出现一种新的不平等:过去,人和人的差距来自财富;未来,人和人的差距,来自你能否拥有AI。
“去学当水管工吧”
在访谈中,主持人问辛顿:如果年轻人现在还在规划职业,该怎么办?
辛顿半开玩笑地回答:去学当水管工。
主持人:为什么?
辛顿:因为短期内,真正不容易被AI替代的,不是最聪明的脑力工作,而是那些需要进入真实世界、需要动手、需要复杂环境判断的工作。
比如维修、护理、装修、电工、厨师、照护、社区服务。AI再强,也很难立刻替代一个上门修水管的人。
这句话听起来像笑话,其实透露出一个现实:未来最安全的,不一定是最体面的工作,而是那些AI暂时做不了的工作。
真正的问题:技术跑得太快,规则却几乎没有
辛顿并不是反对AI。
他承认,AI会帮助医疗、教育、科研和生产力大幅提升。未来,它可能帮助人类发现新药、解决疾病、改善学习效率。
问题不在于AI本身,而在于人类没有建立足够完善的规则。
AI科技公司追求的是:
谁先发布
谁先融资
谁先占领市场
谁先跑赢竞争对手
但很少有人愿意慢下来问一句:“如果这项技术失控,我们准备好了吗?”
辛顿认为,现在最需要的,不是停止AI,而是建立监管。
就像汽车需要红绿灯、药品需要审批、核技术需要国际条约一样,AI也必须有边界。
否则,人类可能会在还没学会如何驾驶之前,就把一辆极速失控的赛车开上高速。
最后:真正值得警惕的,不是AI,而是人类的傲慢
辛顿最后说,他并不确定AI一定会毁灭人类。但他认为,AI失控的概率,可能高达10%~20%。
哪怕只是10%,也已经足够让所有人认真对待。因为如果一架飞机有10%的概率坠毁,没有人会愿意坐上去。
蒸汽机、化石能源、核武器、互联网,都曾给人类带来巨大进步,也都带来新的风险。
而AI,可能是历史上第一次,一个比人类思考更快、更强、更会学习的工具。
当工具开始比主人更聪明时,真正的问题就来了:
我们是否还有能力,继续做那个主人?
Geoffrey Hinton. “Godfather of AI: They Keep Silencing Me But I’m Trying to Warn Them!” YouTube, 2025. https://www.youtube.com/watch?v=giT0ytynSq
夜雨聆风