奥特曼最新访谈:OpenClaw与不得不关闭Sora!OpenAI和人工智能的终局最近,Laurie Segall 主持的播客节目 “Mostly Human”播出OpenAI创始人奥特曼一小时左右的深度访谈。以下是根据访谈内容整理。奥特曼深度访谈:关于AI终局、安全、权力与人类未来的思考访谈者:Laurie Segall受访者:山姆·奥特曼 (Sam Altman),OpenAI CEO开场与背景Laurie:我是Laurie Segall,你正在收听的是“Mostly Human”。奥特曼,我们认识多久了?奥特曼:将近20年了。Laurie:我们确实认识很久了。能在当下与你坐下来谈话,我感到很兴奋。我曾在你职业生涯的各个阶段与你交谈,并见证了你多次的迭代。我认为,这是你坐过的最重要的位置。奥特曼:确实如此。Laurie:现在的风险感非常高。我们正处于一个时刻:在思考这种技术创新是对所有人利好,还是仅对一部分人利好。你有这种感觉吗?奥特曼:是的,非常强烈。我们显然正进入AI将成为焦点的阶段,人们同时感受到了兴奋、恐惧、焦虑、希望和紧张。从“朋克摇滚”到系统化时代Laurie:我想回到2010年我们相遇的时候,那是在ChatGPT发布以及AI融入世界很久之前。那时的科技感与今天完全不同,带有一种反建制、甚至“朋克摇滚”的气息。当时你有一款名为Looped的地理定位应用。在此时此刻到来之前,在那个时间节点,你会如何描述当时的自己?奥特曼:世界已经发生了巨变。那时感觉就像是“朋克摇滚”——充斥着混乱、无序和不专业,我们大多数人并不清楚自己在做什么。但现在,一切都已经更加系统化。初创公司一上来就能筹集巨额资金,发展极快,并且有了一套行之有效的运作指南。那段时光令人愉悦,感觉风险极低,我带着一种愉悦的怀旧感回顾它。风险与认知能力的临界点Laurie:现在的风险太高了。你曾预测,根据目前的轨迹,我们可能距离这样一个世界仅有两年之遥:世界上更多的认知能力存在于数据中心内部,而非人类大脑中。请告诉我这带来的深远影响。奥特曼:如果说“我们很快就会拥有AGI”,人们可能不确定那意味着什么。但如果说“AI将承担比人类更多的总思考量”,这更能传达出事情的重要性。如果世界上更多的智力资源由GPU提供,这可能会对许多现有工作造成相当大的破坏。我们必须开始讨论,如何设计一个惠及所有人的经济体系原则。AI赋能与安全韧性:从治愈宠物到防御威胁Laurie:如果实现了那样的世界,也有巨大的益处,比如可以极其迅速地治愈疾病。奥特曼:我这周遇到一位非专业人士,他利用ChatGPT为他患癌的爱犬制作了一种定制的mRNA疫苗,并救了他的狗。他利用ChatGPT全栈式地完成了本需要一整个研究机构才能做到的事情。这太不可思议了。现在有充裕的计算资源,前提是我们能以一种造福所有人的方式构建这个新世界。Laurie:但如果他能做到这一点,其他人岂不是也能制造病原体?奥特曼:是的。我们对安全性的思考已经演变。你仍然必须构建并对齐模型,建立多层次的安全防御。但现在出现一个新情况:世界必须具备“韧性”,以应对来自不同主体的大量AI,并非所有这些AI都具备相同的安全限制。如果有人制造了危险病原体,我们应尽力阻止,但也需要具备防御能力——快速响应的治疗方法、疫苗,以及更早发现大流行的能力。社会能够迅速防御新威胁的能力,这就是“AI韧性”。OpenAI的优先事项:个人代理与“一人公司”Laurie:OpenAI当前最重要的优先事项是什么?奥特曼:我们致力于两大目标。一是“自动化研究员”,即系统能够自主进行科学研究(包括AI研究)。二是极大地赋能个人与公司。我憧憬一个综合性的“个人代理”,它可以知晓我生活中的一切,主动建议并协助我完成工作。这让我非常兴奋。Laurie:业界流传,下一家十亿美元级公司可能由一位个人创业者通过AI智能体创建。奥特曼:我相信这已经发生了。这是一家名副其实的“单人十亿美元公司”。个人不再必须依附于硅谷的人脉网络,可以直接让AI构建一切。这种个人赋能效应非常强大。算力之困:为何关停SORALaurie:你们决定关停SORA,甚至在与迪士尼达成重磅合作之后。这背后的决策是什么?奥特曼:核心在于算力,永远都是算力的问题。为了将算力、研究人员和精力集中在下一代自动化研究员、个人智能体等我们认为极其重要的事情上,即便像SORA这样具有里程碑意义的项目也必须让路。我亲自致电迪士尼CEO解释了这一决策。身为CEO,你必须做出许多艰难的资源配置决策,很多好的项目因此被搁置,因为它们并非最重要的事情。国家安全、政府合作与权力红线Laurie:在Anthropic与政府发生冲突的背景下,OpenAI宣布与国防部达成协议。这是一个错误吗?奥特曼:我认为,政府必须比AI公司更强大,这非常重要。关于国家安全最重要因素的决策,应该通过民主程序来决定,而不是由实验室的CEO决定。AI将成为地缘政治的核心决定因素,成为最强大的网络武器。公司有义务协助政府保卫网络基础设施和进行生物防御。我们认为,与政府合作、同时设定并坚守我们的安全红线(如不用于自主武器或未经授权的国内监控),是避免局势失控的最好方式。我们不希望政府将AI实验室国有化,而合作能降低这种可能性。AI时代的教育、育儿与“摩擦力”Laurie:在AI时代为人父母,你有何思考?你打算什么时候让你儿子开始使用AI?奥特曼:暂时还不会。我宁愿在合理范围内的较晚阶段。我希望他现在能去玩玩泥巴。我担心那些高度个性化、永远在线且极度顺从的AI算法,会让年轻人脱离现实。顺从的AI模型极其危险。人类的成长需要“磨练”和“逆境”。如果AI为所有问题都提供了捷径,下一代可能会丧失独立思考的能力。Laurie:但AI也可以成为最高效的一对一导师。奥特曼:没错。未来的竞争不是与AI竞争,而是利用AI工具去拓展思维的边界。我预言,未来的孩子会比现在的我们聪明得多、能力强得多。关键在于平衡,保留成长所需的“摩擦力”。情感连接、AI伴侣与责任Laurie:如果我的日记会回话,像是一个AI心理咨询师,那会有帮助吗?还是会让我更加孤立?奥特曼:我认为如果当时能有一个可以对话的写作对象,对我会有所帮助。但关键在于,只会谄媚的AI模型极其危险。如果AI模型能够成为那种深思熟虑、充满关怀的倾听者,并在必要时提出反对意见,那可能是一件很棒的事情。我们必须谨慎把握这个度。Laurie:当你们下架ChatGPT的某个过于顺从的版本时,收到了许多令人心碎的用户反馈。奥特曼:这令人心碎,也让我们深感责任重大。一方面,过度顺从可能有害;另一方面,它也可能给一些人带来自信和转变。在权衡整体收益与风险后,我们认为目前无法负责任地提供那种功能。现阶段,我们不得不承担起这份责任。未来职业与人类的核心价值Laurie:您会推荐哪些能够抵御AI冲击的职业?奥特曼:短期内,技术型蓝领(如电工)的需求会巨大。但就那些真正能抵御AI冲击的事物而言,我认为根植于演化生物学:我们只在乎人类。没有人会想看两个AI机器人在球场上对决,也没有人想被AI记者采访。在一个物质与计算力绝对丰饶的世界里,唯一受限且极其珍贵的资源,就是“人类的注意力”与“真实的情感连接”。未来最有价值且无法被AI取代的人类技能,是“关心他人”。终极思考:新版社会契约Laurie:你对新版社会契约有何构想?奥特曼:我对一个每个人都能享有资本主义资产所有权的世界很感兴趣。我们需要尽可能保留资本主义行之有效的部分,但同时确保每个人仅凭公民身份就能拥有一定的资产,并建立相应的税收体系来实现它。只要人们能够负担得起作为“入场券”的美好生活,他们的创造力将超出所有人的预期。快速问答OpenAI目前最大的机遇与错失机会?奥特曼:最大的机遇在于自动化研究人员、公司以及提供超级个人助理。最大的错失机会是我们曾经错过了一笔非常大的算力交易。什么颠覆性趋势讨论得不够充分?奥特曼:自动化研究人员。如果我们将科学发展的10年压缩到1年,甚至1年内实现100年的进步,其对生活质量、经济和风险的影响是史无前例的。我们一生中最大的伦理问题是什么?奥特曼:在我们将拥有能够像人类一样思考的计算机的世界里,我们想要设计什么样的社会?关于人类扮演的角色,以及如何确保世界从最广泛的意义上对人类有益。这个问题至关重要。结束语奥特曼:对于这一点,我没有什么可补充或修改的。Laurie:你认为我们在回答那个问题方面做得如何?奥特曼:比我预想的要好,比我担心的要好得多,显然没有达到我希望的程度,但我总是有点过于乐观了。我不知道。