⚡ 划重点 诞生不到半年的开源AI Agent项目OpenClaw,以近乎疯狂的速度席卷全球开发者社区,成为GitHub历史上增长最快的软件项目。2026年4月9日,欧洲AI Engineer大会上,“龙虾之父”彼得·斯坦伯格(Peter Steinberger)进行了独家AMA访谈与State of the Claw演讲,直接回应了闭源担忧、安全争议、黑暗工厂模式、梦境功能来源、Token速度优化等所有核心问题,甚至曝光了行业内幕与未公开规划。
今天,我们分享这场演讲的全部干货,看看OpenClaw背后的技术逻辑与行业思考,以及它将走向何方。
“OpenClaw不会闭源,控制权始终在我手里。”——彼得·斯坦伯格

01 闭源焦虑:OpenClaw不会变成“Closed Claw”
自从彼得加入OpenAI,整个技术圈都在担心:这个开源、本地优先、主打数据自主的AI Agent项目,会不会被OpenAI慢慢收编,最终走向封闭?彼得在访谈中给出了非常明确且细节充足的回应。他坦言,加入OpenAI时并没有过多考虑OpenClaw的开源属性会受影响,但他完全理解社区的担忧。OpenAI过去在开源方面确实表现不佳,但正在发生真实转变——Codex已开源,还推出了Symfony这类开源编排层。OpenAI官方非常清楚,OpenClaw的核心价值就在于开放、中立、兼容一切模型。无论是云端模型还是本地小模型,都可以无缝接入。这种开放性不仅能推动项目发展,更能降低普通人使用AI的门槛。
彼得特意强调:控制权始终在自己手里。他会刻意控制OpenAI参与项目的深度,不会让OpenAI派出大量人员介入。为了保证中立性与生态多样性,他已经主动引入英伟达、微软、Telegram、Salesforce、Slack,以及腾讯、字节跳动、阿里等全球多家科技企业参与共建,同时与MiniMax、Kimi等主流模型厂商达成合作。英伟达的支持力度最大,直接派驻全职工程师参与代码开发与安全加固。彼得也在少量引入OpenAI工程师参与维护,但这完全是基于项目高速发展的人力需求,而非公司层面的主导。OpenClaw的开源底色与中立属性,不会发生任何改变。
02 初心:本地优先、数据自主、黑客式路径
彼得做OpenClaw的直接原因,源于对个人数据控制权的强烈需求。他发现自己的Gmail等核心数据托管在大型科技公司手中,这些公司可以轻易访问用户的隐私信息,这让他非常不安。他理想中的AI Agent,应该让用户完全掌握自己的数据——只有在需要顶级模型处理高精度任务时,才上传极少部分必要数据,其余全部在本地运行。这种欧洲人骨子里对数据隐私的重视,成为了OpenClaw“本地优先”理念的源头。
此外,OpenClaw还想解决一个行业痛点:普通开发者与用户想要连接各类应用、绕过数据壁垒的成本太高。一家初创公司想要接入Gmail可能需要耗费半年时间。但OpenClaw的Clanker可以直接模拟用户操作——点击验证、访问网站、获取数据,用一种更灵活、更高效的方式打破大公司构筑的数据壁垒。彼得把这种路径称作“黑客式路径”——不是恶意攻击,而是用技术手段打破壁垒,让AI能力真正普惠到每一个人。

03 黑暗工厂模式:绝对做不出好的软件
针对“黑暗工厂模式”(AI自动生成、自动合并、自动部署代码,人类完全不参与审查),彼得明确表示:黑暗工厂模式虽然技术上越来越可行,但是绝对做不出好的软件。他用登山做比喻:通往山顶的最优路径从来不是一条直线,而是充满曲折与意外。开发者在构建项目过程中会不断偏离最初规划,然后在这个过程中发现新的灵感、捷径与最优解。没有人能在项目一开始就预判到最终形态,第一个想法几乎永远不会是最终版本。如果直接采用黑暗工厂模式,相当于回到老旧的瀑布开发模型,从一开始就定死所有需求,完全失去迭代与创新的空间。
彼得的开发理念是高度迭代——边构建、边测试、边优化,通过不断调整提示词让AI Agent逐步完善。即便可以搭建自动合并PR的流程,也绝对不能完全依赖,因为大量PR本身没有实际价值,会把产品带向混乱的方向。AI很难自主判断正确的发展路径,而这一切的核心瓶颈,就是“品味”。

04 品味:开发者最核心的护城河
在AI时代,品味被彼得视作开发者的核心护城河。他给出了一个清晰的定义:当下最基础的品味,就是能立刻识别出“AI味”。无论是AI生成的文本、代码还是UI界面,都带有一种标准化、模板化的特征——普通人即便说不出具体哪里不对,也能直观感受到不自然。随着软件自动化程度不断提升,开发者从重复劳动中解放出来,反而有更多精力来打磨细节。比如OpenClaw在运行时会弹出一些带有个性化、人性化的提示消息,这些细节无法通过简单的提示词生成,需要开发者注入自己的品味。
彼得还专门提到了OpenClaw的核心配置文件SOUL.md,这个文件用来定义AI的人格与行为方式。在Agent时代,AI不应该像早期ChatGPT那样只是一个冰冷的搜索框,而是需要具备符合使用场景的个性。比如接入WhatsApp的AI,就应该符合人类在即时通讯工具中的聊天习惯,而不是过于啰嗦、格式生硬。这背后都是品味的体现。
05 梦境功能:灵感来自Anthropic泄露源码
OpenClaw最具科幻感的“梦境”功能,其灵感来源首次公开——并非彼得原创,而是从Anthropic泄露的源码中发现的。彼得确认,他们看到Anthropic的源码里包含梦境相关的设计,才决定把这个功能纳入OpenClaw的未来规划。梦境功能模拟人类睡眠时的记忆整合过程:白天产生短期记忆,晚上大脑自动整理、筛选、固化长期记忆,删除无用信息。AI的梦境功能就是在闲置时自动梳理对话日志、整合记忆、提炼有效信息,形成类似“梦境日志”的内容,提升记忆效率与任务执行能力。
目前上线的梦境功能只是第一步,未来会和社区提出的“维基功能”结合,把零散的记忆整合为结构化的知识体系,让Agent越来越懂用户、越来越智能。更重要的是,OpenClaw的模块化设计让用户可以自由替换记忆模块、维基模块、梦境模块——就像Linux系统一样自定义安装组件,极大降低了定制成本。

06 安全争议:大多是噪音,规范使用完全安全
OpenClaw累计收到1142条安全通告,其中99条被标注为严重级别,这个数字远超Linux内核等经典开源项目。但彼得给出了完全不同的解读:越是有人大喊“极其严重的漏洞”,越有可能是噪音。当下AI安全工具可以自动扫描出大量复杂的多链路攻击漏洞,几乎所有软件都会受到冲击。OpenClaw作为行业焦点,自然成为安全研究者的主要目标,再加上行业存在“发现漏洞越多、曝光度越高”的激励机制,导致大量低价值、无实际影响的漏洞被过度炒作。
他举了一个典型例子:一个CVSS评分10分的漏洞,理论上可以让只读权限的应用获取写权限,但这个漏洞基于极其特殊的使用场景,现实中几乎没有用户会这样配置,对普通用户完全没有影响。还有外部攻击与供应链风险(如伪造npm包、依赖组件漏洞),这些并非OpenClaw自身代码的问题。更让彼得感到挫败的是,有大量机构故意忽略官方安全指南,用错误方式部署(如强行用sudo模式、把个人Agent放入群聊、不开启沙箱保护),然后发布报告指责OpenClaw不安全。彼得强调:只要按照官方文档的默认配置与推荐方式使用,OpenClaw完全可以保证安全。
当然,OpenClaw确实存在潜在风险——任何同时具备“访问用户数据、接触不可信内容、具备通信能力”三个条件的系统,都存在共性风险。这不是OpenClaw独有的问题,而是整个行业的共性挑战。用户需要做的不是拒绝使用,而是理解系统的能力,规范使用方式。目前英伟达派驻的全职工程师几乎全程参与安全问题修复与代码加固,项目安全防护能力已大幅提升。彼得正在推进OpenClaw基金会的落地,打造中立的非营利组织,雇佣全职人员负责安全与维护,目前已接近完成。

07 未来:无处不在的Agent与三大工程师技能
彼得描绘了Agent的下一个终极形态:无处不在的智能助手。他的理想场景来自《星际迷航》——在任何一个房间,只要说出“Computer”,Agent就能立刻响应,通过房间里的iPad、显示器等设备用视觉或语音方式反馈信息。手机只是一个方便的输入终端,未来的Agent应该可以通过眼镜、耳机、智能家居等所有入口随时随地为用户服务。他已经开始尝试相关开发,等项目稳定后会全力推进。
在Token处理速度方面,随着项目优化和快速模式的推出,效率已提升近一倍。未来Token速度会持续加快,等到足够高效时,多会话并行就不再是常态,用户可以用更简洁的方式完成任务。
最后,彼得给AI时代的工程师给出了三个必须重点发展的核心技能:品味、系统设计、说不。品味——能识别低质AI内容、打磨产品细节、赋予AI人格;系统设计——即便AI可以自动生成代码,开发者依然需要具备全局视野,避免系统陷入局部最优,引导AI输出高质量、可维护的代码;说不——实现一个功能只需要一行提示词,但大量功能叠加会导致系统臃肿、逻辑冲突,开发者必须学会拒绝不合理需求,聚焦核心架构。
OpenClaw之所以能在短短半年内引爆全球,本质上是因为它击中了行业的痛点:用户想要数据自主、开发者想要创新自由、行业想要打破壁垒。彼得·斯坦伯格用自己的技术理念与坚持,给AI Agent领域树立了一个全新的标杆。
✨ 关注智知宇宙 探索更多思想星河 ✨
夜雨聆风