一位顶级 AI 安全专家的深度警告:我们正在创造一个可能超越人类理解的存在
“我们正在创造的不是工具,而是一个比我们更聪明的物种。而最可怕的是,我们根本不知道如何控制它。”
Dr. Roman Yimpolski 用了将近二十年的时间研究同一个问题:如何确保我们正在创造的超级智能不会杀死所有人。
当我第一次听到这个说法时,和大多数人一样,我觉得这太夸张了。但当我坐下来听他详细解释后,我开始失眠了。
这不是危言耸听。这是一位在 AI 领域深耕二十年的计算机科学家,用他职业生涯的全部时间在研究一个问题:我们正在建造的东西,可能是人类面临的最大威胁,而我们几乎没有任何准备。
我们知道如何让 AI 更强,却不知道如何让它更安全
过去十年,AI 领域发生了一件不可思议的事情:仅靠增加算力和数据,AI 系统就能变得更聪明。
这不是渐进式的进步,而是质的飞跃。
现在,全球最聪明的人——背后有数百亿美元的资金支持——正在竞相创造最好的超级智能。他们的目标只有一个:比我竞争对手更早到达。
问题在于:我们虽然知道如何让这些系统变得能力更强,但我们完全不知道如何让它们安全,或者与人类偏好保持一致。
这是什么意思?
想象一下,你正在研发一种药物,你知道它会让人类变得更强壮、更聪明、更有能力。但你不知道它的副作用是什么,你不知道长期服用会发生什么,你甚至不知道如何确保它按照你期望的方式工作。
这不是科幻小说。这正是今天 AI 领域的现状。
时间线:比你想象的更近
当我问 Roman 教授,我们离 AGI(通用人工智能)还有多远时,他给了我一个让我震惊的数字。
根据预测市场和顶级 AI 实验室 CEO 的预测,AGI 可能在 2027 年出现。
更具体地说:
Roman 教授强调,这不是他在吓唬人。这是基于当前技术发展趋势的合理预测。
让我举一个具体的例子。
他说,如果你问一个播客主持人,AI 能否取代他?大多数人会说不可能——因为他们有自己的风格、有自己的观众、有独特的魅力。
但 Roman 教授会这样分析:一个大型语言模型今天就能读取这个播客主持人所有写过的东西,比他自己更了解他的风格。它可以训练在主持人做过的所有播客上,知道什么样的问题能增加观看量,什么话题表现最好。它能比人类更好地优化这些参数。
视觉模拟现在已经很成熟了。所以我们可以非常高效地生成一个人类主持人采访任何人的任何话题的视频。
这个逻辑适用于几乎所有职业。
为什么 AI 公司无法保证安全?
Roman 教授对当前 AI 开发方式提出了尖锐批评。
十年前,研究人员就发布了安全 AI 开发的防护指南。这些指南被完全无视了。
他认为,某些领导者本质上是在用数十亿人的生命做赌注,换取个人利益和权力。
但他强调,问题不在于谁建造超级智能,而在于:一旦我们实现了它,我们很可能会后悔。
今天的 AI 公司会告诉你什么?
他们说:"我们不知道如何防止灾难。我们的最新答案是——到时候再想办法,或者用 AI 来帮助我们控制更先进的 AI。"
Roman 教授说:"这简直是疯了。"
一些人会 argue 说,大公司有才华横溢的人,有大量资源,他们有道德和法律义务确保 AI 不会造成伤害。
但现实是什么?
他们唯一的法律义务是为投资者赚钱。
为什么这不是一个可以"解决"的问题
尽管时间线令人沮丧,Roman 教授仍然相信我们可以做出安全的 AI。
但他越研究这个问题,就越意识到这不是一个用我们当前方法就能解决的挑战。
“在最初的五年里,我确信我们能解决这个问题。但我越深入研究,就越意识到这个等式中的每一个组成部分都是我们实际上无法实现的。你越深入研究,它就像一个分形。你会发现十个问题,然后一百个问题。而且它们不仅仅是困难——它们看起来几乎不可能解决。”
没有什么开创性的工作能让我们说:我们已经解决了这个问题,不用再担心了。
只有补丁和小修复,而且很快人们就会找到绕过它们的方法。他们会绕过我们构建的任何安全机制。
当 AI 能力呈指数级或超指数级进步时,AI 安全的进步是线性的,甚至是恒定的。
我们控制这些系统的能力、预测它们行为的能力、解释它们决策的能力,与它们的能力之间的差距正在扩大。我们基本上只是在发现问题后打补丁。
这就像给一个有超能力的外星人生存指南,同时希望他们遵守规则。
如果 AI 在三年内到来,你会怎么做?
Roman 教授说了一个让我印象深刻的比喻:
"我们正在创造这种外星智能。如果外星人要来地球,你有三年时间准备,你现在应该恐慌。但大多数人甚至没有意识到这正在发生。"
他问了一个我们都需要面对的问题:
如果所有工作都被自动化了,你怎么办?
我们过去常说,这份工作会被自动化,所以去重新培训做那份工作。
但如果我告诉你所有工作都将被自动化,没有 Plan B。你无法重新培训。
两年前我们告诉人们去学编程。然后 AI 变得更擅长编程了,所以我们说成为提示工程师。去读四年的学位。现在 AI 比任何人类都更擅长为其他 AI 设计提示。所以那也没了。
经济部分似乎反而更容易解决。 免费劳动力创造免费财富、富足。现在买不起的东西会变得非常便宜。我们可以为每个人提供基本需求,甚至超越基本需求——为所有人提供良好的生活。
但真正困难的问题是:你如何度过所有空闲时间?
对于很多人来说,工作是赋予他们生活意义的东西。
Roman 教授说:"我们看到早期退休的人。那些讨厌工作的人会高兴不工作。但如果所有人都整天闲着呢?当 99%失业时,犯罪率、出生率会怎样?政府没有准备好处理这些问题的项目。"
我们无法预测比人类更聪明的东西
AI 超越人类智能的时刻通常被称为'奇点',这是通过对物理黑洞的类比。你根本无法看到事件视界之外。
Roman 教授用了一个很好的比喻:
"我的法国斗牛犬可以预测我会离开房子然后回来,但它无法理解我为什么要做播客。目的的更深层理解完全在它的世界模型之外。"
认知差距不仅仅是预测个体行为,而是理解行为背后的原因。
科学 Fiction 从来没有成功描绘过超级智能做有意义的事情。作家们要么像《沙丘》那样禁止 AI 来避免这个问题,要么像《星球大战》那样创造愚蠢的机器人。因为根据定义,你无法写出比你更聪明的东西的可信场景。
真正的问题:我们在拿什么做赌注?
Roman 教授提出了一个让我思考很久的观点:
在所有人类灭绝的途径中,最可预测的一个甚至不是超级智能本身。
这是有人创造一种非常先进的生物工具——一种感染大多数人口的新病毒。
他可以预见这可能在达到超级智能之前就发生。
历史表明,精神病患者、恐怖分子和末日邪教总是——当他们有手段时——试图伤害尽可能多的人。如果他们获得能杀死数百万或数十亿人的技术,他们会毫不犹豫地使用它。
但真正的问题是我们无法预见超级智能可能设计的所有毁灭方法。
就像狗只知道明显的威胁——比如被咬——但无法想象人类可以伤害它的无数其他方式一样。
我们知道病毒,因为我们经历过它们。但一个能够进行新颖物理研究的 AI 系统可能设计的东西,远远超出我们的想象。
我们该怎么办?
当我问 Roman 教授,我能做些什么时,他的回答既务实又有些令人沮丧:
"如果你想成为解决方案的一部分,你可以加入像 PAI 或 Stop AI 这样的组织,它们正在建立势头,为那些做出这些决定的人带来民主问责。"
他还有一些更广泛的建议,适用于我们任何人都无法控制的 AI 发展轨迹:
像今天是最后一天一样生活,无论你还剩三年还是三十年。不要花太长时间做你讨厌的事情。追求有趣和有影响力的工作,尤其是如果你能在此过程中帮助他人的话。"
但他也承认,当我们谈论 AI 安全时,我们不是在谈论一个容易解决的问题。
"没有人能告诉你确切的未来,但如果你不控制结果,你就不会得到你想要的结果。可能性空间几乎是无限的,而我们真正想要的结果空间很小。"
我们需要问的硬问题
Roman 教授认为,最重要的事情是让建造这项技术的人认真对待这个问题。
"如果我们真正理解了——这对个人来说是多么糟糕——他们就会停下来。我们的工作是说服每个创造这项技术的人——每个在这些公司工作的人——他们正在未经许可或同意的情况下对 80 亿人进行实验。"
这不是他的个人看法。杰弗里·辛顿——诺贝尔奖得主、机器学习之父——说了同样的话。杨立昆、成千上万的顶级学者、数千名计算机科学家签署了关于 AI 危险的声明。
这是那些最了解它的人的共识。
写在最后
Roman 教授说,他研究 AI 安全已经二十年了,而这个问题从来没有像现在这样紧迫过。
AI 突然出现在我们身边——以五年前没有人能预测的方式——资金和人才以前所未有的水平涌入,试图更快地达到超级智能,让它感觉比以往任何时候都更加不可避免和迫在眉睫。
但当我问他睡得好吗,他说——是的,他睡得很好。
"人类有一种内置的偏见,反对沉湅于我们无法预防的灾难性后果。我们都知道我们会死——我们的孩子、我们的父母、所有人——但我们仍然睡得很好,继续我们的生活。"
这是进化的生存特征。那些整天担心的人不会把足够的精力投入到生存和繁殖上。
所以尽管前方有挑战,Roman 教授选择活在当下,同时继续做这项重要的工作。
我不知道我们是否会成功避免他描述的那些风险。
但我知道的是:我听完这次对话后,我对 AI 的理解彻底改变了。
你对 AI 的未来有什么看法?你认为我们还有时间做出改变吗?欢迎在评论区分享你的想法。
夜雨聆风