乐于分享
好东西不私藏

奥斯卡封杀AI+DeepMind科学家融11亿美元:AI的"红线"与"无人区" · 2026.05.04

奥斯卡封杀AI+DeepMind科学家融11亿美元:AI的"红线"与"无人区" · 2026.05.04

同一天,两条新闻从截然相反的方向撕扯着AI行业:好莱坞电影学院宣布AI生成的演员和剧本不再有资格竞争奥斯卡奖;而DeepMind传奇科学家David Silver刚刚融了11亿美元,要打造”不依赖人类数据就能学习的AI”。

一边在划红线说”AI到此为止”,一边在冲向无人区说”AI才刚刚开始”。这种分裂感,正是2026年AI行业最真实的写照。

奥斯卡的”AI禁令”:艺术界终于亮剑

美国电影艺术与科学学院在最新的规则更新中,以前所未有的明确态度对AI说”不”。

新规的核心内容有三点:第一,只有人类表演者才有资格竞争表演类奥斯卡奖,且必须是影片法定署名中的人类、并在知情同意下完成的表演。第二条更狠——只有人类创作的剧本才有资格竞争编剧类奖项。第三,学院保留要求制片方提供更多AI使用和人类创作信息的权利。

这并非无的放矢。2025年Val Kilmer去世后,其遗作使用AI技术补完了他未完成的表演片段,这一事件引发了业界对”AI补全表演算不算人类表演”的激烈争论。学院的新规显然是对这类灰色地带的明确回应。

但更深层的背景是:AI生成内容正在以前所未有的速度涌入影视行业。 从AI生成的背景演员到AI辅助的剧本修改,技术正在从工具变成”创作者”。奥斯卡此次亮剑,实际上是在定义一条关键边界——在艺术领域,”创作”这个行为的主体必须是人类。

与此同时,奥斯卡还做出了其他几项重大改革:国际电影奖不再限定每个国家/地区只能选送一部电影(在柏林、戛纳、威尼斯等六大电影节获奖的影片可直接获得提名资格);演员可以在同一类别中获得多个提名(这在奥斯卡早期是允许的,后来被禁止);选角指导奖的获奖人数从两人增加到三人。

但毫无疑问,AI禁令是此次规则更新中最具时代意义的决定。

David Silver的11亿美元豪赌:摆脱人类数据的AI

如果说奥斯卡在给AI划红线,那David Silver就是在打破天花板。

作为DeepMind AlphaGo、AlphaZero和AlphaStar的核心架构师,Silver是AI领域最传奇的人物之一。他主导的AlphaGo在2016年击败李世石,标志着AI第一次在人类引以为傲的智力领域取得决定性胜利。而AlphaZero更是革命性的——它不需要任何人类棋谱,完全通过自我对弈从零开始学会了国际象棋、围棋和将棋,并且在每个领域都超越了人类最佳水平。

现在,Silver带着11亿美元的新融资创立了一家新公司,要把AlphaZero的思路推广到所有AI领域——打造一种不依赖人类标注数据就能自主学习的AI系统。

这个愿景的野心可以用一个比喻来理解:当前主流的大语言模型(如GPT-4、Claude)就像是一个读了全人类所有书籍的学生,它通过消化人类已有的知识来获得智能。而Silver想做的是:创造一个不需要读书、只需要思考和实验就能变聪明的学生。

在技术路线上,这涉及到强化学习、自我博弈、世界模型等前沿方向。Silver在DeepMind的工作已经证明,在封闭的规则环境(如棋类游戏)中,这种方法可以超越人类。但真正的挑战在于:开放世界中的AI能否也通过类似方式获得通用智能? 没有棋盘规则,没有明确的胜负标准,AI要如何在真实世界中”自我进化”?

11亿美元的融资规模说明投资者对这个方向的信心。在当前大模型范式日趋”内卷”(模型越来越大、数据需求越来越多、成本越来越高)的背景下,Silver提出的是一条可能的”断崖式超越”路径——不跟OpenAI拼数据量,而是从根本上换一条赛道。

行业影响:两条路线的终极对决

这两条看似无关的新闻,实际上勾勒出了AI行业在2026年最核心的矛盾:

路线A——”人类数据驱动”派: 以OpenAI、Anthropic为代表,通过吸收人类知识和反馈来提升AI能力。这条路线的上限取决于人类数据的质量和数量,以及RLHF(基于人类反馈的强化学习)的有效性。它的优点是可控、可预测,但瓶颈也很明显——人类知识的边界就是AI的边界。

路线B——”自主学习”派: 以David Silver为代表,试图让AI通过与环境的交互自主发现知识。理论上,这条路线的AI不受人类知识天花板的限制,有可能发现人类从未想到的解决方案。但风险在于——我们可能无法理解AI的决策过程,也无法预测它的行为。

奥斯卡的AI禁令则代表了社会的第三种力量:不是反对AI技术本身,而是坚持在特定领域(创意艺术)中维护人类的主导地位。 这是一种”有条件的拥抱”——AI可以是工具,但不能是创作者。

这三股力量的交汇,正在塑造AI的未来走向。

竞争格局中的位置

  • OpenAI/微软:继续在”人类数据”路线上狂奔,同时通过五角大楼的机密合同深入国防领域。商业上最成熟,但技术路线可能面临天花板。
  • Anthropic:以安全为差异化定位,但在政府合同竞争中落选(未被纳入五角大楼AI合同),暗示安全牌可能不如预想中好用。
  • Google DeepMind:Silver的离开可能加速Google内部的路线调整。Google同时在两条路线上押注——既有Gemini系列追赶GPT,也有DeepMind的强化学习传统。
  • xAI/Musk:深陷与OpenAI的法律战,技术实力和商业落地都与头部玩家有差距。
  • David Silver的新公司:最大变数。11亿美元的启动资金已经超过了绝大多数AI公司,如果技术路线跑通,可能改变整个行业的竞争格局。

观点

我必须说,奥斯卡的决定虽然看起来”保守”,但实际上非常聪明。

它没有禁止使用AI工具——导演和编剧仍然可以用AI来辅助创作,就像摄影师可以用Photoshop一样。但它明确了一点:最终被认可和嘉奖的,必须是人类创造力的表达。 这不是反技术,而是保护人类创作的价值锚点。

至于David Silver的11亿美元豪赌,我的看法是:这是2026年最值得关注的AI赌局,没有之一。 不是因为它一定会成功——自主学习的AI在开放世界中面临的挑战比棋类游戏高出几个数量级。而是因为,如果它真的成功了,后果将是颠覆性的。一个不依赖人类知识的AI,意味着人类可能第一次面对一种真正”异质”的智能。那将远超AlphaGo击败李世石的震撼。

到那时,奥斯卡的AI禁令可能就不只是关于艺术创作了——它可能变成人类社会面对超级AI时”坚守人类底线”的早期预演。

当好莱坞在用规则保护人类创作的尊严,一个DeepMind天才在用11亿美元赌一个不需要人类的未来。这不是矛盾,这是人类面对AI时最诚实的反应——我们既害怕被取代,又忍不住去创造可能取代自己的东西。

— END —

免责声明:本文由AI辅助生成,仅供参考。