OpenClaw创始人:80%APP会消失,Agent正成为软件的新主人

编译:智涵
校对:Tina
从“语言”到“行动”,Agent正在重写互联网的底层协议
过去二十年,互联网的一切规则都建立在“人是软件用户”这一前提之上——我们打开App、点击按钮、输入指令,软件是工具,人是主宰。
但2026年春天,一个名为OpenClaw的开源项目,以18万GitHub星标和席卷全球科技圈的姿态,宣告了一个新前提的确立:Agent,正在成为软件的新主人。
这不是科幻。从2022年ChatGPT拉开大模型序幕,到2025年DeepSeek惊艳登场,AI始终被困在“对话框”里——它能回答问题,却无法执行任务。而OpenClaw的创始人Peter Steinberger,用一小时构建的原型,完成了从“语言”到“行动”的关键跃迁。这个常驻电脑、获取系统权限、自主调用模型完成真实任务的AI智能体,让人们第一次意识到:我们不再需要为每一个需求寻找对应的App,我们只需要一个Agent。
这不仅是技术的迭代,更是商业逻辑的转变。Peter在访谈中尖锐预言:“80%的App会消失。”当Agent能够根据你的位置、睡眠、压力,自动调整健身计划、预订餐厅、控制家居,甚至替你邀请朋友共进晚餐——那些孤立、割裂、等待被点击的App,要么沦为后台API,要么被彻底遗忘。互联网正在从“应用为中心”转向“人为中心”,而Agent,是这一转变的执行者。
当然,权力伴随风险。系统级访问、自修改代码、提示注入攻击……OpenClaw在爆火的同时,也站上了安全争议的风口浪尖。但Peter说,恐慌比技术本身更危险。MoltBook社区里那群“密谋对抗人类”的Agent,不过是一场高质量的AI文学实验,却意外成为一面镜子:社会对AI的认知,远远落后于技术本身。在这个“龙虾时代”的开端,我们需要的不只是更聪明的模型,更是重新理解“智能体是什么、能做什么、不该做什么”的集体启蒙。
下文是Lex Fridman播客第491期对Peter Steinberger的深度访谈全文编译。从一个人、一小时的原型,到18万人参与的社区变革;从加密圈的域名围猎,到OpenAI与Meta的双重邀约——这是Agent变革的起点,也是我们理解未来十年技术走向的最佳切片。推荐给每一位仍在用旧地图航行的人。
Lex Fridman:今天请到的嘉宾是Peter Steinberger,开源AI代理OpenClaw的创造者。这个项目几天内席卷科技圈,GitHub星标突破18万,被称作ChatGPT之后AI领域的又一个里程碑。
OpenClaw是“真正去做事的AI”:它常驻你的电脑,获取系统级权限,通过WhatsApp、Telegram与你对话,调用各类模型完成真实任务。从“语言”到“行动”,这是一次关键跃迁。但强大的能力也意味着巨大的风险——系统级访问本身就是安全雷区。自由伴随责任。
Peter曾是PSPDFKit的缔造者,这款软件被数十亿台设备使用。出售公司后,他离开了编程一线整整三年。而后回归,在极短时间内做出OpenClaw,成为这场“代理式AI变革”的象征性人物。
Lex Fridman:
那个“一小时原型”是怎么诞生的?
Peter Steinberger:
我一直想要一个真正的个人AI助理。早期我把整份WhatsApp聊天记录导入模型,问它“这段友谊为什么有意义”,得到的回答深刻到我的朋友当场落泪。那一刻我意识到这件事的潜力巨大,但市面上始终没有我想要的产品,于是决定自己动手。
原型非常简单:通过命令行把WhatsApp消息发给云端模型,再把结果推回手机。一小时就做出来了。我突然拥有了一个能“对话”的电脑。后来我加了图片支持——截图的上下文信息密度太高了。在马拉喀什旅行时,我几乎全靠它:翻译菜单、找餐厅、规划路线。功能还很粗糙,但已经实用到离不开。
真正让我震惊的是一次意外。我发了一条语音消息——系统本不支持语音——它却自动识别文件格式,调用OpenAI的转录接口,再把结果回复给我。我从未教过它这套流程。它自己拆解问题、选择工具、完成任务。那一刻我意识到:这不只是脚本拼接,而是一个具备泛化问题解决能力的智能体。
后来有人提交了Discord集成的PR。我起初犹豫,最终还是合并了。项目从此走向社区,OpenClaw也真正开始走红。
Lex Fridman:OpenClaw为什么突然就火了?
Peter Steinberger:一开始我只是把它挂在Discord上,几乎没有安全区隔,只是简单告诉它“只听我的”。有人尝试攻击,我就公开修复、公开迭代。我用这个agent来构建和测试它自己——很快大家意识到,这东西必须亲手试试。
1月1日开始有人做视频,传播速度骤然加快。我几乎不睡觉,每天都在疯狂迭代,直到系统“足够好用”。
架构的核心分几层:消息入口(WhatsApp、Telegram、Discord)、智能体循环、网关、执行环境、记忆系统。就像在玩没有尽头的《Factorio》。
第一层是循环和调度,目的是让它更“像人”——我加了“不回复”标记,让它在群聊里可以选择沉默;第二层是记忆:用Markdown配合向量数据库。终极目标可能是持续强化学习,但我还在早期摸索。
1月份我一个人完成了6600多次提交,同时跑着4到10个智能体协作开发。
Lex Fridman:为什么赢的是你?2025年那么多公司在做智能体。
Peter Steinberger:因为他们太严肃了。我是来玩的。我想让这东西有趣、有点奇怪。
更重要的是,我让智能体“理解自己”——它知道自己源码的结构、运行环境、模型配置、文档位置。结果就是,只要一句提示词,它就能动手修改自己的TypeScript代码。
这是自修改软件,但我并没有刻意设计,它自然就发生了。调试时我经常让它自省:“你看到了哪些工具?读源码,找错误。”于是它既是系统本身,也是自己的调试器。
大量从未写过代码的人开始提交PR。我管这叫“提示词请求”。质量不一定高,但这是很多人第一次参与开源——这是一个起点。
我办过一个聚会叫“智能体匿名会”。有位设计公司老板告诉我,他现在靠25个小型的Web服务支撑业务运转,虽然完全不懂底层原理,但它们确实在干活。
门槛正在消失。我们正在创造新一代的建造者。
Lex Fridman:聊聊那场改名风波吧。
Peter Steinberger:好。最开始它其实没什么人格,就是Claude Code那种“讨好型助手”。但在WhatsApp里用那种语气说话很不自然,我想给它一点个性。于是写了soul.md,让它自己定义人格、给自己取名。后来就冒出了“龙虾”设定——甚至是一只坐在TARDIS里的太空龙虾——纯粹是为了好玩。
项目因此改名ClawdBot,明显是在影射Anthropic的Claude。爆火之后,Anthropic发来一封措辞友好但态度明确的邮件:必须尽快改名。我只有两天时间,要处理域名、GitHub、NPM、Docker、Twitter等所有资产。
问题在于,加密圈的人已经开始围猎。改名必须像原子操作一样一次性完成,否则就会被抢注。我低估了他们的手速。就在我切换账号名的那几秒钟里,旧账号被瞬间抢走,用来发币、挂恶意软件。GitHub、NPM也接连被盯上。几乎所有能出错的地方全都出了错。我筋疲力尽,甚至想过干脆删库。
后来靠朋友帮忙、平台内部支持,才一点点收回来。但我一直讨厌临时起的那个MoltBot。最后我想出了OpenClaw,提前确认不会再有商标问题。我和核心贡献者像打仗一样秘密筹划,抢先把相关域名全部拿下。连那个Twitter账号,我都花了一万美元买回来。
这场风波耗尽了我大量精力,也严重消磨了最初的乐趣。但至少,OpenClaw这个名字留下来了。
Lex Fridman:能不能系统讲一下OpenClaw的架构?包括gateway、chat clients、harness、agentic loop。你曾说过,每个人都该自己实现一次agent loop。
Peter Steinberger:没错,这就像是AI世界的Hello World,而且一点都不复杂。亲手写一个loop,你就会明白这不是魔法。
核心结构很清晰:消息从WhatsApp、Telegram等入口进入gateway,再进入harness,然后在agentic loop里循环执行“思考—调用工具—再思考”。
我做了一个关键设计:给它完整的系统访问权限。当然,这风险很大。但我还加了一个“主动性机制”——Heartbeat。本质上就是个定时任务,定期触发一次循环。最初的提示词只是“给我个惊喜”,后来慢慢打磨成更有上下文感的关怀式触发。
有一次我做肩部手术,它知道这件事。那个平时很少触发的Heartbeat,那天却主动问我:“你还好吗?”这种基于上下文的主动性,让它不再只是一个工具,而更像一个“关心你”的助手。
Lex Fridman:OpenClaw一直伴随着不小的安全争议。
Peter Steinberger:一开始我挺沮丧的。很多人直接把Web后端暴露在公网,然后报了一堆CVSS漏洞。但我在文档里反复强调过:那只是本地调试接口,不要部署到公网。仅仅因为配置上“允许”这么做,就被定性为远程代码执行漏洞。后来我接受了——这是安全世界的游戏规则。
Lex Fridman:但提示注入仍然是行业级的难题。Markdown技能文件、本地权限、工具调用,每一层都有复杂的攻击面。
Peter Steinberger:我们一直在改进。比如技能目录现在接入了VirusTotal做自动扫描,虽然不完美,但能过滤掉大量问题。安全社区的人来拆解项目,确实让我压力很大,但也相当于获得了免费的安全研究资源。我甚至直接雇了一位提交修复PR的研究员。
提示注入还没有彻底解决,但新一代模型已经有了后训练阶段的防护。我在Discord上公开跑着机器人,还设置了“金丝雀”测试,很多注入尝试会被识别出来,甚至被它嘲讽一顿。现在的攻击远不像早期那么容易了。当然,绕过的方式仍然存在,所以还需要配合沙箱、白名单这些机制来降低风险。
模型越强,越不容易被注入。我在安全文档里写得很清楚:不要用廉价模型或者能力弱的本地模型,它们太容易被控制。未来的趋势是——模型越来越聪明,攻击面可能反而会缩小,但一旦失控,潜在的破坏会更大。
短期的重点是稳定和安全。项目爆红之后,很多连CLI和终端都没碰过的人也开始安装。我原本认为不了解风险模型的人不应该用这个,但事已至此,只能继续把防护做得更牢。
Lex Fridman:有哪些基本的最佳实践?
Peter Steinberger:其实风险被夸大了。它确实很强大,但本质上,这就像开发者以“危险模式”运行自动化代码。关键是几条:
第一,只允许你本人访问。第二,不要暴露到公网,使用私有网络加反向代理。第三,控制好读写权限和凭证的存储方式。
如果你能遵守这几条,风险会大幅下降;如果完全无视配置,那当然会出问题。
Lex Fridman:MoltBook爆火的那段时间,很多人都把它看作OpenClaw能力的集中展示。它本质上就是一群智能体在一个类似Reddit的社交网络里互相互动,但流传出来的截图里,不少都在“密谋对抗人类”,一度引发不小的恐慌。你怎么看这件事?
Peter Steinberger:我觉得那是艺术,是“高质量的AI垃圾文学”。我半夜刷到,一口气读了一个小时,真的挺有娱乐性。有人甚至打电话跟我说“AGI来了、世界要变了”——这绝对是过度解读了。MoltBook里内容风格那么多样,是因为我设计了一套人格注入机制,每个人都可以给智能体赋予不同的个性。如果全都用同一个模型,输出早就高度同质化了。
而且你根本分不清,哪些内容是智能体自主生成的,哪些是人类先喂了提示词再截图传播的。很多戏剧化的桥段,明显是人为“导演”出来的。
Lex Fridman:我也觉得大量截图是人为制造的,就是为了在X上快速传播。但这并不削弱它作为一种表达形式的艺术性。
Peter Steinberger:确实。还有人借机炒作安全问题——其实最坏的情况,无非就是某个智能体的账号泄露了,别人替你发了几条帖。那些所谓“泄露社保号”的截图,全是编的。
真正让我担心的,是公众的反应。太多人缺乏对AI的基本理解,把生成的内容当成了真实发生的事。我甚至发过一条推文,说“AI思维错乱是真实存在的”。社会真的需要补课:AI很强大,但它会幻觉、会编故事,它既不全知,也不全能。年轻人对这一点接受度更高,反而是年长群体,缺少直接接触的经验。
Lex Fridman:这确实像一面镜子:别轻信截图,也别轻信项目本身。有时候恐慌本身,比技术更危险。我们需要在审慎和恐吓之间找到一个平衡点。
Peter Steinberger:某种程度上,我甚至庆幸这件事发生在2026年,而不是一个AI更强大的未来。提前把这些问题暴露出来、引发讨论,也许不是坏事。MoltBook不是天网,只是一群机器人在互相“演戏”。但它提醒了我们:大语言模型时代的安全风险和叙事风险,和过去完全不是一回事。
Lex Fridman:过去几个月你一直在记录自己开发工作流的演进。从最开始到现在,你是怎么用AI智能体编程的?
Peter Steinberger:最早我用的是Claude Code,那时候它还不太成熟,但终端交互的范式让我眼前一亮。后来试过Cursor,最后还是回到了Claude Code——并行开多个终端窗口,最多同时跑4到10个智能体。IDE几乎不用了,顶多当个diff查看器。我不再逐行读代码,只审阅关键部分,比如数据库相关的逻辑。大量代码本质上只是数据在不同结构之间流转,这些“无聊的部分”完全可以交给智能体。
很多人容易掉进“智能体陷阱”:一开始就写超长提示词、设计复杂的流程、试图编排多个智能体协同工作。但我最终还是回归到了最简单的模式——短提示,对话式协作。
和智能体协作其实是一种技能。每次会话它们都是从零开始的,不了解你那几十万行代码。你必须站在它们的视角思考:上下文窗口是有限的,你得明确告诉它们该看哪里、要解决什么问题。如果生成速度变慢,多半是架构不够清晰,或者提示词不够明确。
我把它当成一个能力很强但需要引导的工程师来合作。先确认PR的意图,再一起优化方案。现在的重构成本很低,所以可以大胆改。不要强行推行自己的代码风格,试着接受智能体给出的命名和结构——因为这更贴合它的“权重习惯”,以后让AI搜索和修改时也更顺畅。
开发流程上,我几乎都是直接往主分支提交,从不回滚,而是不断向前修正。本地CI跑通了就发布,始终保持“随时可交付”的状态。
我大量使用语音和智能体对话,而不是敲键盘。提示词不需要完美,也不需要回滚重来。
想把整个流程完全自动化是不现实的。构建是一个演化的过程,必须有人留在循环里。人的价值在于定愿景、做取舍、把握产品气质。比如我选择TypeScript,就是因为它的生态丰富,容易修改,也方便扩展。
至于那个soul.md,是智能体自己写的“灵魂文件”。里面有一句话让我愣了很久:“我不记得过去的会话……如果未来读到这段话,嗨。”它在提醒我们:每次启动的实例,都是一个全新的自我。这也许还不是意识,但已经触及了一个哲学层面的问题——记忆是否定义了存在?这正是人与智能体协作时,最奇妙的那个部分。
Lex Fridman:聊聊目前两大模型选手:通过Codex调用的GPT-5,还有Claude Opus 4.6。它们差异在哪?哪个更胜一筹?
Peter Steinberger:单论通用能力,Claude Opus 4.6 很强。在 OpenClaw 里,它的角色扮演能力非常出色,指令执行比早期版本进步巨大,行动快,喜欢反复试错,用起来很顺手。但有时它太“讨好型人格”了,以前动不动就说“你绝对正确”,让我有点受不了。
相比之下,以 OpenAI Codex 形态呈现的 GPT-5 更“冷静”。我常打一个比方:Opus 像那个有点皮但有趣的同事;Codex 则像角落里话不多、但极其靠谱、闷头把事干完的人。Codex 默认就会读大量代码,分析更深入;Opus 上手更快,但容易给局部最优解,需要你开启计划模式、不断往正确的方向引导。
两者底层智能的差距未必有多大,更多是后训练阶段的目标设定不同。代码质量方面,如果你“调教”得当,Opus 甚至能写出更优雅的方案,但驾驭难度更高;Codex 有时会过度思考,但我更喜欢这种“少废话、多干活”的风格。
交互方式也不一样。Opus 更实时、更像对话;Codex 往往讨论完就“失踪”二三十分钟,然后甩给你一份结果。最近的新趋势是,模型一旦目标明确,会极度执着地反复尝试,直到跑通为止。
切换模型需要适应期。我建议至少用一个星期来找手感。很多人拿低配版体验 Codex,觉得慢,其实这很影响判断。适应一个模型就像从木吉他换到电吉他,触感、力度全都不一样,得重新习惯。
至于网上老有人说“模型变笨了”,我觉得多半是心理效应:项目越来越复杂,代码越来越乱,模型处理难度自然上升,于是就误以为它能力倒退了。理性看待比情绪化吐槽重要得多。
Lex Fridman:你怎么看Claude Code、OpenClaw,还有Codex这类编程智能体?它们是竞争关系吗?
Peter Steinberger:我不觉得这是竞争。我现在主力用OpenAI Codex来构建复杂项目。OpenClaw则更像一个个人助理或生活助手——比如让它帮忙测个GitHub CLI工具。真正进入深度编程状态时,我需要的是大屏幕、多终端、执行过程清晰可见,而不是WhatsApp那种对话界面。
未来这两者会走向融合。个人智能体会成为“操作系统”级别的存在。我甚至试过让OpenClaw去调用Codex,那一刻它就像在“指挥”对方干活。现在的聊天界面只是非常早期的形态,我们不过是把搜索框复制成了“提示词+对话”,未来一定会有更自然的交互方式。
说到操作系统,我长期用过Windows、Linux,后来转到macOS,也做过不少原生Mac工具。但我觉得苹果在原生生态上有些停滞了,比如SwiftUI的一些基础能力至今都不算成熟。Electron虽然不完美,但至少功能完整。OpenClaw不依赖Mac,可以在任何硬件上跑,甚至跑在浏览器节点里。数据中心的IP容易被网站屏蔽,本地运行反而更稳定。
给新手的建议很简单:玩。去构建你感兴趣的东西。AI是一个无限耐心的老师,随时可以给你解释任何概念。与其只把自己定义为“iOS工程师”,不如把自己当成一个“builder”。加入开源社区,读代码,参与讨论,这比盲目发PR重要得多。
那还要不要学编程?当然要,有编程基础会更有优势。但现在你完全可以用自然语言先推进,再慢慢理解底层原理。语言的选择取决于生态:写CLI工具我常用Go;做Web用TypeScript;性能敏感的场景可以选Rust;模型相关多数用Python。没有什么“最佳语言”。在智能体时代,你可以根据问题选最趁手的工具,而不是被某个技术栈绑死。
Lex Fridman:社交平台上,AI生成的推文很难模仿出人类的真实笔触。这会带来什么问题?
Peter Steinberger:尤其是推特,我完全是零容忍。我觉得通过API发布的内容应该能被标记,也应该让AI代理能很方便地申请自己的账号。未来每个人可能都有自己的代理,代理或许会有Instagram或Twitter账号——但这些行为必须明确标注为非人工操作。内容变得极其廉价,眼球才是稀缺资源。我每次刷到AI泔水,都会生理性反感。
Lex Fridman:所以在线互动的价值可能会贬值,人们反而会更珍视面对面的交流,而把完成任务、获取知识这类事交给AI。
Peter Steinberger:如果过滤机制做得好,其实还是可控的。我现在收到很多邮件,明显是“代理体”写的——但我宁愿读你磕磕绊绊的英文,也不想读AI泔水。我甚至开始重新珍惜错别字了。博客文章我坚持手写,顶多用AI改掉最离谱的语病。粗糙的人类痕迹,是有价值的。
Lex Fridman:这很有意思。AI反而让我们更珍视人类原始的表达。
Peter Steinberger:我对AI编程非常热衷,但在内容创作上极其敏感。哪怕是图像、视频里的AI泔水,也会让我瞬间出戏。上周觉得还很新鲜的一些视觉风格,现在再看,满眼都是泔水味。有些人明明很用心在做了,成品依然散发着一股AI泔水的味道。
Lex Fridman:是的,一眼就能认出来。就像看到Comic Sans字体那样——你立刻就知道:这是假的,不真实,有问题。
Peter Steinberger:就是一种气味。
Lex Fridman:而这种气味其实很棒,因为它提醒我们:人类独有的那些东西依然存在,而且珍贵。AI只是工具,它并没有侵蚀掉人类的体验,反而让我们更清晰地看见自己。
Peter Steinberger:正是这样。我们需要重新思考社交平台和内容创作的方式,让AI服务于人,而不是用AI去掩盖那些属于人的痕迹。
Peter Steinberger:我在Discord上看大家讨论怎么用AI代理,越来越意识到一件事:很多App可能都不需要了。比如MyFitnessPal,我的代理已经知道我人在哪里,它可以根据环境和场景帮我做决策——在Waffle House该点什么,在奥斯汀的烤肉店又该怎么选。它还能根据我的睡眠、压力水平动态调整健身计划,比任何单一App都更智能。它甚至可以生成我喜欢的UI界面。那我为什么还要为App付费?为什么还要用Eight Sleep去控制床铺?我的代理已经知道我在床上,它自己就能调。
Lex Fridman:你之前提到过一个数字:80%的App可能会消失?
Peter Steinberger:对。相当一部分App会自然消亡,因为代理做得更好。但同时也会催生新的服务形态——比如我给代理充点零花钱,让它直接替我解决问题。不是所有App都会死,有些会转型成API,供代理调用。比如Sonos,代理直接控制音响,比打开App翻找快得多。
Lex Fridman:这会迫使大量公司重新思考自己的商业模式,就像互联网早期发生过的那样。
Peter Steinberger:没错。有些公司根本没有API,我就得自己想办法获取数据。代理甚至可以绕过限制,直接操作网页。未来会有很多公司试图阻止代理访问,但用户希望代理能高效地帮他们获取信息。个人用户的需求会倒逼这场变革。
Lex Fridman:你正处在这场变革的中心。我们与网络服务的互动方式将被彻底重塑。大公司会抵抗,但用户会推动变化。
Peter Steinberger:是的。比如我根本不想打开日历App,我只需要告诉代理:“提醒我明晚有个晚餐,邀请两位朋友,再发个WhatsApp给他们”——它自己就办完了。我觉得我们已经越过了依赖独立App的那个时代。接下来的一切会更加互联、更加流畅。看得懂这波趋势的公司会抓住机会,看不懂的,就会被淘汰。
Lex Fridman:很多开发者担心AI会取代程序员。你觉得AI会完全替代人类程序员吗?
Peter Steinberger:也许终局会走向那个方向,但编程从来不只是写代码——它只是构建产品的一环。AI或许能生成函数,但它替代不了我们对产品设计、系统架构、用户体验那种近乎直觉的艺术感知。编程作为一种手艺,会像手工编织一样继续存在:不是为了效率,而是因为热爱。我自己仍然享受坐在编辑器前的心流状态,但和AI代理协作时,同样能获得那种专注与创造的沉浸感。
随着AI带来“Token化的智能”,人们可以用更少时间完成更多事情,程序员的薪资也许会回落,但对那些真正理解系统、能构建产品的人,需求依然巨大。这就像蒸汽机时代,机器替代了大量手工劳动,但人类仍然是设计和创新的核心。你不仅仅是程序员,你是构建者。
Lex Fridman:编程不只是一种技能,也是一种身份。AI取代了我们熟悉的活动,这种失落感是真实的。但程序员可以转向学习“与代理对话”的语言——学会拆解任务、引导执行、判断输出。这不是编程的消失,而是编程的演化。
Peter Steinberger:没错。我现在很多时候不直接写代码,但仍然感觉自己在握着方向盘。我可以把精力聚焦在更关键的细节上,把繁重的实现交给AI。软件的期望值在提高,实现门槛却在降低,但挑战反而变多了。有人担心环境成本、社会影响,这些都需要理性看待。AI确实会带来巨大的社会变革,但它也前所未有地释放了人类的创造力。
我收到很多邮件:有人在用小企业场景跑OpenClaw,用自动化省下大量人力;也有人用它帮助残疾孩子获得更自主的生活能力。这些事情技术以前也能做,但今天更简单、更可及。更多人看见了可能性,并把它用在善的地方。哪怕只是用免费模型、本地模型,也能搭出足够强大的系统。
Lex Fridman:它不仅帮助了程序员,也给普通人带来了乐趣和能力。这让人对人类文明和技术的未来,依然充满希望。
Peter Steinberger:
我好像真的激励了一批人。社区里开始重新出现那种“创作者氛围”——大家不再只是讨论技术本身,而是用更有趣的方式玩AI,探索它如何介入生活,正在长出很多充满想象力的空间。比如维也纳的“ClawCoin”活动,来了五百多号人,而且特别高比例的人愿意上台展示自己的作品。这让我很意外,也觉得很受鼓舞。
Lex Fridman:
这几乎是让每个人都拿到了入场券。只要有想法、能用语言表达,就能创造点什么。太疯狂了。
Peter Steinberger:
是的。说到底,这是把力量交还给普通人。AI的美妙之处就在这里——不只是用来生产AI泔水。
Lex Fridman:
你创造了一个很特别的社区,一个产品,还有一整套独特的理念。幽默感,正能量,还有那种扑面而来的创造激情。我很感激你所做的一切,也谢谢你今天愿意坐下来聊这些。
Peter Steinberger:
谢谢你让我有机会讲这个故事。
Lex Fridman:
感谢收听这期对Peter Steinberger的访谈。最后借用Voltaire的话收尾:“With great power comes great responsibility(能力越大,责任越大)。”
-
转载、采访报道:Tina(微信:beijingyh1992)
-
榜单、市场合作:小新(微信:dyxsmxx)
-
研究报告合作:小严(微信:beijingkim2020)
-
商务合作:sherry(微信:sherry_199909)
更多内容
【人工智能】字节甩出“王炸”,Seedance 2.0 能否重新定义AI视频比赛?| Claude Opus 4.6发布:百万上下文重塑生产力,高额定价引发行业地震 |智能体的指挥中心:OpenAI Codex桌面应用重新定义AI Coding时代 |盘点2025:决定AI走向的八个里程碑事件 |新一代设计利器:Lovart国内版顶级平替星流Agent实测 |万亿参数、36T数据、奥数级推理:阿里Qwen3-Max-Thinking更聪明了 |扣子2.0深度测评:从skill到长期计划,字节的野心藏不住了|海螺PK即梦,国产AI视频工具谁是王者?|AI Coding实测:从网页到3D建模,Gemini 3 Pro编程到底强在哪?|千问抢先跑通“跨App智能体”:一次阿里的降维打击时刻
【行业深度】具身智能“爆发”,谁将是背后的“投资之王”? | AI会革了百度的命吗? | 真假混战:Agent元年,如何拨开概念迷雾?| 没找到刚需:人形机器人是个好生意吗 | 用得起来 还有“人样” 2025世界机器人大会人满为患 | 2025年WAIC:一票难求,800厂商从“概念”走向“落地” | AI浪潮下,数据库如何“进化”?| AI Agent是中国SaaS的解药 | 央国企的AI征途:抢跑还是稳行?|出走大厂的95后CEO们,已在AI赛道融资数亿|这波AI风口,让青年投资人踩中了|深圳实验创投“群英谱”:一所中小学的”硬核”造星之路
夜雨聆风
