您想知道的人工智能干货,第一时间送达


编辑 | 云昭
“现在的AI,就像2020年疫情爆发前夜!”
“程序员父母的孩子,眼睁睁看着自家孩子用Codex写游戏!”
4月8日,OpenAI CEO Sam Altman 与 OpenAI 研究科学家 Josh Achiam、OpenAI 研究员 Adrien Ecoffet 开了一场关于“未来AI”圆桌讨论。
主持人是知名投资人 Chris Nicholson。
这场 Panel 的大背景是,当天OpenAI发布了一份 13 页的“智能时代”的政策蓝图。(该死的是,小编发现OpenAI的这份原始文件已经找不到了。)
通过外媒给出的信息,可以看出这份蓝图文件透露出了相当强烈的“超级AI将至”的预警信号。
蓝图文件中,OpenAI 提议设立公共财富基金、32 小时工作周试点、“可携带的福利”、正式的"AI 权利"以及税收改革以抵消自动化规模扩大导致的工资收入减少等建议。

Sam 坦承,这份文件中给出的只是OpenAI团队早期想法,目的是目的是开启讨论。
而 OpenAI 之所以最后发出这份文件的“上下文背景”则更为恐怖:
“我们判断,现在已经非常接近一个关键节点。”
至于说程度有多么关键?Sam 用了一个很恐怖的类比:就好比2020年疫情爆发的前夜!“技术已经发生质变,但社会尚未意识到。”
我们每天盯着数据,反复讨论,确信这件事会爆发。
我们知道有件事要来了,只是世界还没意识到。
Sam 讲述了一段国内很少得知的经历:在 2020 年疫情初期,OpenAI 内部比外界更早意识到风险,甚至被媒体嘲笑“过度反应”。
回到这次 Panel。Sam Altman 与团队成员这场讨论的重点有一点超前,但可以说跟每个人都息息相关,包括:极强模型时代下,AI 会从工具转向基础设施、创业门槛被极大压低、算力成为核心资源,以及社会需提前构建适配的制度与“韧性体系”以应对潜在冲击。
整场感受下来,小编认为,这场Panel最有冲击力的部分,是OpenAI内部对于“极强模型”时代下,整个社会应对的预设构想。
首先,Sam Altman明确提出,传统AI安全思路已经过时——未来不是“少数模型被严格控制”,而是“海量AI共存”,真正的安全将来自全社会的防御能力,原来“少数几个 AI Lab 的对齐大模型”的做法已经失效了。
其次,AI民主化也被重新定义了。Sam 表示,关键不在“人人能用ChatGPT”,而在于“是否拥有算力资源”,“AI民主化”本质上是基础设施问题,类似电力而非软件。
这也就引发出了第三点:面对AI可能取代大量智力劳动,Sam 也改进了自己之前提到的一个想法:全民基本收入(“发钱”),他将之改成了“发生产力”(如基础算力),这是分配逻辑的根本变化。
甚至Sam提出了一个不成熟的税收构想:既然“劳动”已经被AI接管,那传统的征税对象就应该从“人”转向“创造价值的AI”。
此外,OpenAI 也指出了现在大家很容易忽略的一个现实情况,即,AI带来的最大风险,其实并不是全新问题,很多问题之前就已存在,只不过是 AI 放大了既有系统脆弱性,例如网络安全、供应链等。
最后,“AI 能力溢出”的问题再次被提及,Josh 指出社会对AI能力的认知严重滞后,技术进步以“月”为单位,而公众理解却以“半年”为周期,这种认知错位本身就是未来冲击的重要来源。
作为这份文件的参与撰写者,研究员 Adrien 无意间曝了一个OpenAI内部的料:现在他们几乎不怎么写代码了!大部分代码都是AI写的。
另一个有趣细节来自 Sam 的日常体验:他分享自己把体检报告输入 ChatGPT,竟然获得了比医生更细致的解释和建议,这种“即时理解复杂问题”的体验让他印象深刻。
此外,Sam 给到了自己一个独特的颇具代表性的代际断层式的观察:
程序员父母看到孩子竟然在对着 Codex 语音,让 AI 为他生成游戏。父母的表情从“不可能”到震惊。
“孩子们终将会在完全不同的世界中长大!”
不得不说,00后也要过时了,一个AI原生的α世代(10后)将至!
以下是小编整理的三位OpenAI内部的核心思考,enjoy!
Sam:我们即将进入“极强模型”的时代
主持人 Chris Nicholson:大家下午好,欢迎来到 OpenAI Forum。我是 Chris Nicholson,很高兴今天和大家一起交流。这个论坛的目标,是围绕 AI 在现实世界中的应用展开严肃讨论:我们正在从中学到什么,以及更多人如何参与塑造它的发展方向。
今天的讨论聚焦一个技术领域的核心问题:随着 AI 系统能力大幅提升,它将意味着什么?我们该如何理解它对科学、工作、社会生活以及治理的影响?
今天的嘉宾包括 OpenAI 联合创始人兼 CEO Sam Altman、首席未来学家 Josh Achiam,以及长期从事研究工作的 Adrien Ecoffet。
那我们开始。Sam,我们今天发布的这份蓝图里大量提到“超级智能”。我最想问的是:为什么是现在?以及你们在内部看到的一些东西,有哪些是你希望外界更早知道的?
Sam Altman:最核心的原因其实很简单:进展还在加速,而且速度越来越快。
我们判断,现在已经非常接近一个关键节点。接下来几年里,会持续出现更强大的模型,这不会是一次性的跃迁,而是一段持续增强的过程,这些模型会对世界产生重要影响。
参与这份蓝图的研究人员做了一件很了不起的事情。这些内容本质上是“早期想法”,目的是开启讨论。我相信随着全球范围的讨论深入,我们会得到更好的答案。
我们正在直面即将到来的模型能力——整个 pipeline 已经摆在眼前。当然,我们也可能判断错误,可能会撞到技术瓶颈,我们并不完美。但基于目前看到的情况,我们预计很快会进入一个“极其强大模型”的时代,而且能力还会持续提升。这会深刻影响经济、生活方式,以及人类的能力边界。
我有一个观察:在真正必须做决策之前,如果公众、领导者和政治系统有更多时间去讨论问题,通常更容易做出更好的决策。
所以现在就开始这场讨论,非常重要。
OpenAI研究员大部分代码都让AI写了
安全政策文件需要同行讨论
主持人:说到“讨论”,我们这次很早就让很多研究人员参与进来了。这种让研究人员和政策思考者紧密合作的方式,其实挺少见的。Adrien,你怎么看这段经历?
Adrien Ecoffet:这对我来说是一次很不一样的体验,也是我第一次深度参与政策文件的撰写。
某种程度上,这件事挺“打脸”的。作为研究者,我们平时很容易停留在抽象层面,比如讨论经济影响、安全政策这些宏大问题。但真正把这些想法写成具体政策,是完全不同的挑战。
你必须提出可以被同行讨论、甚至质疑的具体方案。所以我觉得,让研究人员这么早、这么深度参与进来,对最终成果是有帮助的。尤其是这种高度前瞻性的议题,确实需要那些每天在构建这些技术、理解安全体系、亲眼看到进展速度的人来参与。
有一点我印象特别深:在过去几个月里,很多研究人员经历了一个转变——从自己写代码,变成让 AI 写大部分代码。这种变化带来了一种强烈的紧迫感:这项技术已经真实存在,而且正在快速推进,而外界很多人还没有真正感知到这一点。
Sam :现在的AI,就像2020年疫情爆发前夜
Sam Altman:我讲个小故事。2020年1月底到2月初的时候,OpenAI 内部一群研究员开始对 COVID 非常敏感,比整个社会都早。
我们每天盯着数据,反复讨论,确信这件事会爆发。我们甚至开始计划远程办公。当时还有媒体写文章嘲笑我们,说 OpenAI 这群人太夸张了,比如在门把手上涂铜之类的。
但我们其实已经在为“封锁”做准备。我们知道有件事要来了,只是世界还没意识到。
有一天晚上,很冷。我住在 Mission 区,我当时想:可能要被关在家很久了,我要出去走一走。我在城市里走了几个小时,透过餐厅和酒吧的窗户,看着人们面对面聊天、呼吸交错,而我戴着口罩,看起来像个怪人。
街上只有另一个戴口罩的人,我们彼此点了点头。除此之外,一切都显得完全正常。但我心里很清楚:事情要变了。
现在,我再次有了那种感觉。
一种巨大的变化正在发生,甚至已经发生了——模型已经到达某个水平,但整个社会还没有消化它。我们看得很清楚,也在努力告诉世界,但很难让人真正理解。
这就像疫情刚开始时的那个夜晚。
AI令人兴奋的一面
主持人:这个比喻很有意思。那如果我们把 AI 和疫情对比,你刚才讲了风险,那“好的一面”呢?
Sam Altman:好的部分,其实好到值得我们多花时间去认真讨论。
比如科学:如果我们能把10年的科研进展压缩到1年完成,如果我们能治愈大量疾病,实现个性化医疗,发现新的材料,让能源变得更便宜、更安全……
如果每个人只要有创业想法,AI 就能帮他实现、写代码、搭产品;如果每个人都能拥有专属于自己的游戏体验……
这些都是非常美好的事情。当然,这也是为什么我们要带着紧迫感发布这些内容,因为也会有很多问题需要应对。
我本身是个乐观的人,但更重要的是,这项技术极大拓展了我们的“可能性空间”。
当我第一次读完研究人员写的这份蓝图时,我的感受是:这既令人兴奋,也有点疯狂——因为这些讨论已经变得“可信”。如果 AI 真如我们预期那么强大,那它也会成为一个帮助我们解决问题的新工具。
OpenAI的核心责任:
技术实现、确保大多数人受益
主持人:Josh,我想问你。我们把 AI 看作一种“社会基础设施”,它正在改变人们的工作、学习和参与社会的方式。那机构和我们这些人,应该承担什么责任?
Josh Achiam:我会从“普惠性”这个角度来看。长期以来,人类社会一直有一个理想:让每个人都能拥有基本生活条件,比如食物、住所、电力、医疗。
但现实中我们总被告知:做不到,成本太高,社会负担太重。而 AI,尤其是超级智能,可能会改变这一点。
它有机会以远低于过去的成本,让这些基础资源变得可普及,从而让更多人能够把时间和精力投入到真正重要的事情上。
作为这项技术的推动者,我们有一项特殊责任:确保这些好处真的能够实现,同时参与建设政策和制度,让普通劳动者、中产阶级、以及低收入国家的人群都能受益,而不是只让少数富人获利。这是我认为最核心的责任所在,我也对此非常期待。当然,风险同样不容忽视,系统性冲击是有可能发生的,我们必须提前准备、认真思考,并且坦诚面对这些问题。
AI安全范式变了:
限制模型转向社会韧性防御
主持人 Chris Nicholson:这听起来更像是一个“韧性”的问题。当我阅读这份文件、和你们交流时,我发现你们是在用“分层”的方式来理解韧性,对吗?不仅是在 AI 发布之前,也包括 AI 发布之后——社会如何应对,以及人们如何做好准备。我想分别听听你们对“韧性”的理解。Adrien,我们先从你开始。
Adrien Ecoffet:我觉得可以先做一个区分。传统上我们谈 AI 安全,更多是做安全评估、建立防护机制,这当然非常重要,也是“韧性体系”中的一层,而且还需要继续强化。但与此同时,我们也要考虑另一种情况:如果有一些参与者没有做足够的安全测试,会发生什么?如果 AI 带来的风险在这种情况下出现,社会该如何应对?
现实中很可能会出现事故,或者“险些发生”的事件。在这份蓝图里,我们提到“事件报告机制”,有点类似航空业的做法——任何事故或险情,无论多小,都会被记录进数据库,让整个行业都能知道风险在哪里,以及可以采取哪些缓解措施。
还有一些是社会层面的应对,比如防御能力建设。现在的模型在编程上已经很强,这意味着它们也可能被用于网络攻击。韧性的一部分,就是提升整个社会的软件安全水平,并且用 AI 来强化这些防御能力。所以你说的“分层”是对的,这是一个多层次的问题。
Sam Altman:过去我们对 AI 安全的理解,可以叫“经典范式”:假设世界上只会有极少数 AI,只要确保这些 AI 被正确对齐、不做危险的事情,世界就没问题。
但现在的情况更复杂,也更稳定——未来会有很多 AI 同时存在。仅靠某一家公司的约束是不够的,社会需要形成一种“涌现式”的整体应对能力。
举几个例子。网络安全会成为一个非常大的问题。AI 会极其擅长发现软件漏洞,世界会意识到自己的软件其实比想象中更脆弱。过去人类只是没能力发现那么多漏洞而已。
但问题在于,你不能指望一两家模型公司去完全阻止这些能力,因为“写代码”和“发现漏洞”本质上是同一能力。而且即使所有公司都限制模型使用,开源模型也会很快具备这些能力。
真正的应对方式,是整个社会使用 AI 来进行防御。比如可以先把能力提供给可信的防御方,让他们强化系统安全。这需要大规模协作,而不是单点控制。
再往前看,还有“生物安全”的版本。有人可能会说,只要限制模型开发病原体就可以。但现实是,总会有人用某些模型去做这件事。
所以社会需要建立“防御盾”:检测系统、快速响应机制、治疗手段等等。
这并不意味着我们可以放松对模型安全的要求,我们仍然要持续做对齐、构建安全系统。但与此同时,社会必须发展出这种“自发的防御能力”,构建多层防护。
威胁远不止这些,但时间有限,先说这两个例子就够了。
AI只是放大了原来的问题,也可以用AI来解决
主持人 Chris Nicholson:Josh,你之前提到,每一次重大技术变革,都会催生新的制度和民主机制。你也在思考这次会出现什么新的机构。你现在最兴奋的想法是什么?
Josh Achiam:先补充一点关于“韧性”的背景。很多我们担心 AI 会放大的问题,其实原本就存在,只是 AI 提升了紧迫性。
比如疫情期间,我们才真正意识到供应链的重要性——食物、商品,一切维持社会运转的东西都依赖它。同样,在民主制度上,我们也已经讨论了很多年:信息操纵、社会影响等问题是客观存在的,而 AI 可能会让这些攻击在短期内变得更容易。
但我比较乐观的一点是:我们可以借助 AI 去建立新的制度能力,来修复这些脆弱点。AI 可以帮助我们系统性地识别问题、系统性地修补漏洞,还可以扩大防御规模,让攻击成本变得非常高。
比如在网络安全和生物安全上,我认为有机会建立一个“防御生态”,让攻击的成本高到不值得去做。
另外一个我特别关注的点是食品供应链的生物风险。这个问题被低估了,但 AI 可以帮助我们以可扩展的方式去提升它的安全性,而这在过去是成本无法承受的。所以我对这些“可以被构建出来的能力”是非常兴奋的。
人如何在AI经济中转型
主持人 Chris Nicholson:最后一个问题。对于个体来说,工作形态会发生变化,价值也会重新分配。你怎么看人在 AI 经济中的转型?
Josh Achiam:这个问题很大,但有一个核心变化是:人会拥有更强的“行动能力”。比如,你可以创办一家公司,让一支 AI 团队去完成你自己并不擅长的所有工作,这会让一个想法落地变得容易得多。
当人们获得这些工具、能做以前做不到的事情时,整个经济结构会发生非常根本的变化。
Sam Altman:未来创业,只需要两个人和一堆GPU
主持人 Chris Nicholson:确实如此。Sam,我也想问你类似的问题。你在创业领域经验非常丰富,不管是亲自创业、管理 Y Combinator,还是长期在这个生态里,你怎么看 AI 会如何改变创业,以及实现新想法的方式?
Sam Altman:我现在很着迷的一件事,就是去探索这个空间。具体会变成什么样我也不完全确定,但像 Josh 刚才说的——一个人或一个很小的团队,很快就能做出一个完整创业项目——这件事背后一定有很深、很重要的变化值得挖掘。
在我们这个行业,每当“创业的摩擦成本”大幅下降时,都会诞生非常惊人的新东西。我记得我自己经历过的一次变化,就是 Amazon Web Services 出现的时候。突然之间有了“云”的概念,小团队不再需要去做过去那些复杂的基础设施工作,比如在机房里堆服务器。
那次变化已经极大提升了小团队的能力,而这一次的变化会更大。中间当然也经历过几轮,但这一轮的幅度是最大的。
我非常想看到这样一种形态:一个创业公司可能只有两三个人,加上一堆 GPU,就能做成事情。这会真正实现“谁都可以创业”的民主化。
Sam Altman:AI民主化的本质是一个基础设施问题
主持人 Chris Nicholson:这确实回到了“民主化”的问题,本质是让更多人能够使用 AI。那你觉得应该用什么框架来理解“AI 的普及”?
Sam Altman:当人们谈“AI 民主化”时,其实是在说两件不同的事。
一是“使用权的普及”,也就是让每个人都能用上足够强的 AI,去改善自己的生活、为他人创造价值。二是“参与权”,也就是人们对 AI 未来发展方向要有发声的机会。
这两点都很重要。我们做这类蓝图,一个重要原因就是:如果社会没有讨论,人们没有使用体验,那他们就无法参与决策。但这还不够,我们还需要机制,让这些反馈真的被听见,并能反映到系统中。
另外一点是,我们不仅要提供像 ChatGPT 这样的服务,还要把真正高算力、能支持创业、科研的能力,广泛提供给更多人。
主持人 Chris Nicholson:这可能意味着新的经济模式,或者更低的推理成本,让 AI 能更广泛普及,对吗?
Sam Altman:这本质上是一个基础设施问题。我们过去在 OpenAI 讨论了很多年:什么时候能走出“算力短缺”。但我现在觉得,我们可能永远都不会真正走出来。只要我们持续降低“智能的成本”、提高“智能的能力”,需求就会无限增长。
如果我们没有建设足够的基础设施,算力就会被极度集中,价格不断被抬高,最终只被少数人掌控。
所以我唯一真正相信的长期“民主化策略”,就是:建足够多的 AI 基础设施,让模型足够强大,让算力尽可能普及。理想状态下,人们甚至会开始烦恼“我该拿这么多算力做什么”。当然现实可能不会完全到这一步。
但如果算力稀缺,最富有的人和公司一定会把价格抬到极高,这会形成新的垄断。所以从某种意义上说,大规模建设数据中心,其实是一件“非常平权”的事情,因为它能扩大 AI 的可及性。
历史上类似的例子很多。比如电力:降低电价,是提升人类生活质量最重要的因素之一。能源的可获得性,长期以来与生活质量高度相关。
未来可能会变成“AI 可获得性”。就像能源一样,我们需要让 AI 变得充足且廉价,这就意味着必须大规模供给,同时持续技术创新,让成本不断下降。
普通人如何不被甩出技术红利?
让员工参与决定AI的使用方式
Adrien Ecoffet:我想补充一个角度。我们刚才谈了很多“广泛获取 AI”的好处,比如会催生很多新产品,对世界有用。
但我们在写这份蓝图时,也在思考另一件事:那些普通人——并不一定会创业的人——如何不被这项技术甩在后面。这其实涉及一个更大的问题:AI 会如何改变经济结构?价值会更多流向资本,还是流向劳动(哪怕是 AI 形式的“劳动”)?
蓝图里提到一个关键问题:如何重构税基?在一个由 AI 驱动的经济中,如何重新设计分配机制?
核心是:如何让这项技术带来的繁荣属于所有人,而不是只集中在少数人手中。
主持人 Chris Nicholson:这个问题很关键。蓝图里有一些有意思的想法,比如“让员工参与决定 AI 在工作中的使用方式”。
Josh,我想先问你这个问题,也想让大家一起讨论:社会应该如何“拿到”AI 带来的收益?需要什么样的制度?
Josh Achiam:先补一句关于算力的问题:在未来几年算力仍然稀缺的情况下,“算力如何分配”,会成为整个社会最重要的问题之一。
我们应该尽可能快地扩大算力供给,否则就会陷入一种很痛苦的局面——明明可以为所有人创造巨大的价值,却因为算力成本太高而无法实现。
再说到“员工参与 AI”。我想先正面承认一个现实:很多人其实是担心 AI 的,他们担心被取代,并不会天然对“在工作中使用 AI”感到兴奋。
所以第一步,是像这份蓝图这样,明确提出:我们会推动政策,确保经济是公平的,无论发生什么,你都会被支持。只有在有基本安全感的前提下,才有可能展开真正的讨论。
接下来,我们需要做几件事:让工会参与 AI 决策,让员工参与制定 AI 在工作中的使用规则。比如,很多人对“AI 监控”很担忧,那么员工就应该参与这类决策。
另外一个重点是“AI 素养”。我们需要大规模提升人们使用 AI 的能力,让他们能用 AI 改善生活、创业、创造价值。
新机构形态:介于公司和政府之间的中间层
主持人 Chris Nicholson:有哪些制度设计,可以让更多人分享到 AI 带来的红利?Josh,你怎么看?
Josh Achiam:如果谈“新型制度”,我觉得一个方向是提升政府对经济的“测量能力”,也就是更细颗粒度地理解经济运行,这样一旦某个领域发生变化,就可以更及时地响应。AI 在这里是一个非常有潜力的工具,可以让这件事变得更可扩展、成本更低。
另外,我认为未来可能会出现一种“介于公司和政府之间”的新机构形态。现在公司和政府在治理和问责上差异很大,但我们可能需要一种中间层——既有一定治理能力,又足够灵活——可以提供类似社会保障的服务,或者在企业董事会和监管机构之间起到桥梁作用。
因为这件事不能完全依赖私营公司(它们的治理约束有限),也不能指望政府(推进速度相对较慢)单独完成,所以我们可能需要一些“中间机构”来做实验、做原型。这些想法还比较早期,但大概方向是这样。
Sam:未来征税对象可能从“人”变成“AI产出”
主持人 Chris Nicholson:Sam,从制度角度看,你觉得人们如何能更广泛地参与到这波红利中?
Sam Altman:我们刚才谈到“广泛获取”,也就是给更多人更多算力。有些人会提“全民基础算力”(universal basic compute)这类概念,听起来像是一个新口号,但本质其实很简单:与其在 AI 取代大量工作后,给人发钱,不如直接给人“资源”。
人们其实很清楚自己需要什么,也很有创造力,关键问题在于——如果他们被排除在这种资源之外,那才是最大的问题。
我确实认为,在一个 AI 承担大部分智力劳动的世界里,我们需要重新思考税收体系。传统是对人的收入征税,但未来可能需要对“AI创造的价值”征税。
同时,我们可能需要新的过渡机制,比如失业保险等。再往后,我们还需要思考一个更根本的问题:人们如何“拥有”这波增长的一部分收益。
资本主义依赖于劳动和资本之间的某种平衡,如果这个平衡被打破,现有体系就无法维持,必然需要演化。但具体会变成什么样,现在仍然是一个开放问题。
我们现在做的,就是把一些想法抛出来,让社会有时间去思考和讨论。当然,也要承认一种可能性:也许我们判断错了,可能根本不需要这么多改变。但在不确定中提前讨论,是有价值的。
每周四天工作制
Adrien Ecoffet:我想补充一下“也许我们错了”这个点。
在蓝图里,我们提出了一些建议,比如改革税基、探索每周32小时工作制等。但这里有一个重要原则:这些措施应该是“逆周期”的——也就是在 AI 带来冲击时才启用。
因为在当前世界,这些措施本身可能是有扰动的,我们讨论的是一个已经发生巨大变化的未来世界。
所以制度上一个关键问题是:如何提前识别 AI 可能带来的冲击,并在适当时机启动相应机制,来缓冲冲击、分配收益。
主持人 Chris Nicholson:我看到报告里还有一个想法是“可携带福利”(portable benefits),因为在美国,福利和雇主绑定很紧。
Adrien Ecoffet:对,这是一个更偏美国语境的提议,但我认为非常重要。现在这种福利体系其实问题很大,比如一个人失去工作,就失去医疗保障,这本身就是不合理的。
主持人 Chris Nicholson:Adrien,从研究一线来看,你已经能感受到加速在发生,也能看到科学进展。那社会和制度要跟上技术,大概还有多长时间窗口?
Adrien Ecoffet:很难给出精确时间,但可以给一个参考。我们内部讨论过,大概在2028年左右——更具体一点是2028年3月——可能会出现“自动化AI研究员”。
一旦这种系统出现,就会带来“双重冲击”:一方面,它本身就能完成高级认知工作;另一方面,它还会进一步加速 AI 本身的发展。
所以那之后的发展速度,很可能会比我们目前的节奏更快。这大致就是我们在讨论的时间窗口。
ASI后,人类最重要的品质是什么?
连接、创造力、同理心
主持人 Chris Nicholson:接下来我们进入观众提问环节。有一个问题来自 Setlana Romanava:随着 AI 能力越来越强,未来最重要的人类品质是什么?我想请每个人简单回答一下。Josh,先来。
Josh Achiam:我认为有一些品质是永恒的,比如品格、承诺、努力、同理心,这些始终重要。还有创造力,以及理解他人需求的能力。
但我也想分享一个小例子。最近我第一次去“机器人咖啡馆”,本来特别期待,结果体验非常糟糕。
我以前以为自己不在乎像 Starbucks 那样的店员微笑、打招呼这些互动,但实际体验下来才发现,我真的很需要这些。
走进一个地方,点个屏幕,让机器人做咖啡,虽然咖啡很好喝,但整个体验是空洞的。那些日常的小互动,其实很重要。
Sam Altman:我基本同意。
Adrien Ecoffet:我补充一点,这在蓝图里其实也提到过:人类是需要彼此的。
某种程度上,科技和社交媒体的发展,已经削弱了一部分人与人之间的连接。但这种连接仍然极其重要,而且随着 AI 变得更强,人们反而会更加意识到这一点。
很多需要人类连接的工作,比如护理、教育等,都会变得更重要。这不仅是一种职业,也是我们生活中不可或缺的一部分。
我觉得未来最重要的一点,可能就是:你作为一个人,如何对待其他人。
Josh:AI可以让高质量医疗规模化
主持人 Chris Nicholson:我同意。下一个问题:在美国,医疗、育儿、养老成本都很高,AI 如何让这些服务变得更普惠?
Josh Achiam:让我特别兴奋的一点是,AI 有机会把世界上最好的医疗服务带给每一个人。很多人在医疗体系中其实是迷失的,不知道该去哪里、怎么走保险流程、该找什么专科医生。有人为了确诊奔波很多年也没有结果。即使遇到非常有同理心的医生和护士,他们也没有足够时间为每个人提供最优质的服务。我认为 AI 可以让高质量医疗实现规模化,它不会取代医生,而是让他们的工作负担更合理,同时也能让患者获得更好的体验。
Sam Altman:我同意,这本质上是“患者赋权”。我们都看到过一些人在社交媒体上分享非常惊艳的医疗体验。
我自己的例子没那么夸张,但也很典型:我最近做了一次血检,有一些指标稍微超出范围。我问医生,他说问题不大。我把报告丢进 ChatGPT,它给了更详细的解释,还建议我补充某种营养、一个月后复查,结果确实有效。虽然我不是什么严重疾病,但这种“上传数据→立即获得合理建议”的体验,本身就很惊人。
我觉得类似的事情会在医疗、教育等很多领域发生,比如个性化学习。当然像养老护理这种领域,我们仍然希望更多是人来做,但 AI 可以显著降低医疗和教育的成本。
Adrien Ecoffet:我基本同意。一个很基础的点是,AI 会加速医学研究,从而整体提升医疗水平。另外,在医疗体系中,其实有大量繁琐的流程性工作,如果 AI 能承担这些部分,就能释放更多人力,让更多人真正投入到“照护”本身,这显然是积极的变化。
Sam:程序员的孩子会在完全不同的世界里长大
AI进步周期是周和月,而人评估周期却半年
主持人 Chris Nicholson:今年我们一直在讨论“能力过剩”这个现象:AI 已经能做很多事,但大多数人还没有真正用起来。有时我觉得,是因为人们已经习惯了现有世界,不再去想象更好的可能。那你们在生活中,有没有见过那种“突然意识到自己可以做到”的瞬间?
Adrien Ecoffet:我觉得人类适应新技术本来就需要时间。现在 AI 能力提升的速度,远远快于人们习惯技术进步的节奏,所以会出现“能力已经在那里,但使用还没跟上”的情况。
Sam Altman:我有一个特别喜欢的场景:让程序员父母,看他们的孩子第一次用 Codex。孩子有很多想法,但完全不知道什么难、什么容易,只是用语言描述一个游戏,然后让模型帮他做出来。很多时候孩子是用语音在说,父母一开始会觉得“这肯定不行”,结果真的做出来了。然后他们突然意识到:自己的孩子会在一个完全不同的世界里长大,会默认这些能力就是存在的。而我们这一代人,甚至不会去尝试,因为我们太确定“这做不到”。这个反差特别有意思。
主持人 Chris Nicholson:这其实是个老现象了,每一代人都更自然地掌握新技术。
Josh Achiam:关于“能力过剩”和认知滞后,还有一个时间尺度错位的问题。很多人只是模糊地知道 AI 在发展,偶尔几个月才用一次,也不会去深度探索能力边界,比如不会用推理模式,而只是停留在默认聊天模式。所以他们会觉得 AI 没那么强,甚至觉得它不可靠。
这种“认知差距”会在一个阶段被打破——当他们看到别人或机构,用最强能力模式做出令人震惊的结果时,就会更新认知。比如有人快速获得准确诊断,类似这样的案例在社会层面大规模出现时,这种认知会迅速改变。
现在的情况是:AI 的进步周期是“周”和“月”,而用户重新评估它的周期可能是“半年”。当更多人真正看到能力上限时,会发生一次明显的转变。
主持人 Chris Nicholson:Sam 刚才说的那个孩子的例子,其实让我意识到一件事:创意型的人会获得巨大优势。很多人有大量想法,但过去没办法实现,现在这个门槛正在被打开。
Sam Altman:我甚至觉得,很快会出现一种模型:你可以让它读取你的邮件、聊天记录、电脑里的所有内容,然后帮你总结“你其实想做但一直没做的事情”,再把这些想法变成可执行的项目。我认为这会非常有意思。
主持人 Chris Nicholson:这已经开始出现了,很多人把 AI 当作“思考伙伴”。今天的讨论就到这里。感谢Sam、Josh、Adrien,也感谢大家的参与。
OpenAI 希望这场对话持续下去,目前也在征集反馈,可以通过邮箱 newindustrialpolicy@openai.com提交你的想法。同时我们还会启动试点项目,包括最高10万美元的研究资助,以及最多100万美元的 API 额度支持,并将在5月于华盛顿开启新的研讨活动。
感谢大家参与这场讨论,也期待它继续发展。
参考链接:
https://fortune.com/2026/04/06/sam-altmans-capital-gains-taxes-4-day-workweek/
https://youtu.be/ZpUKNYcgM-E?si=tqgeZDbLhgAOzQ40


文章精选:
1.强化学习之父、图灵奖得主 Sutton 隔空回应 图灵奖得主Hinton:目前的 AI “理解不足,调参有余”
夜雨聆风