
两件事同时发生,但99%的人没把它们联系起来。
2026年初,科技圈同时发生了两件事。几乎没有人把它们放在一起看。
“两件事就这样平行发生着。
一群世界上最懂AI的人,因为恐惧选择了逃离;
另一群普通玩家,因为好奇下载了那只‘小龙虾’(OpenClaw)。
这中间隔着的,到底是什么?
那些科学家最害怕的,究竟是什么?
而那只正横着爬进你电脑的小龙虾,是不是就是他们害怕的那个东西?”
第一件事
全球最顶尖的AI实验室,正在上演一场密集的离职潮
Anthropic的安全研究团队负责人辞职了,去读诗歌学位。
xAI联合创始人Jimmy Ba离职,在告别帖里写下:"2026年将会是疯狂的一年,很可能是我们物种未来最忙碌、也最具决定性的一年。
"OpenAI的"使命对齐"团队被解散。
另一位OpenAI安全研究员Steven Adler公开表示,他"被AI的发展速度吓坏了",担心它会毁灭人类。
这些人拿着全球最高的AI薪水,掌握着外界无法接触的内部信息,亲手参与构建了这个时代最强大的技术。
他们为什么要走?
更奇怪的是他们离职的方式。
Anthropic联合创始人Jack Clark发过一条推文,精准地捕捉到了这种诡异:
"离开普通公司的人:是时候做出改变了!期待我的下一个篇章!
离开AI公司的人:我凝视过无尽的黑夜,看到了其中的轮廓。我们必须彼此善待。我即将去学习哲学。"
读起来不像在换工作,更像在写遗嘱。

第二件事
同一时期,OpenClaw下载量在暴增
它的昵称是"小龙虾"。
人们把它装进自己的电脑,兴致勃勃地看着它横着走。
——自己打开浏览器,自己操控鼠标,自己写代码,自己测试,自己修改。
完全不需要人插手。
一件事发生在顶尖实验室的内部,让最懂AI的人选择了逃离。
另一件事发生在普通人的桌面上,让数以万计的人觉得好玩、新奇、有趣。
那些科学家最害怕的,究竟是什么?
而那只小龙虾,正在你的桌面上,悄悄地把那件事变成现实。
1
那些离职的人,到底看到了什么?
他们不是在担心AI会犯错。
AI犯错,大家早就见怪不怪了。
胡说八道的参考文献、炸毛的修图、答错的洗车题,这些翻车视频每天都在评论区引发欢笑。
他们害怕的,是AI开始自己决定做什么。
深耕AI领域的创业者Matt Shumer,在今年2月写过一篇刷爆推特的文章《大事正在发生》。
不到24小时阅读量超过2000万。
他说他写这篇文章,是因为一直在对家人和朋友"撒谎"。
每次有人问AI到底怎么回事,他都给一个温和打折的版本。
因为如果说出真心话,别人会觉得他疯了。
但现在他说不下去了。
他描述了自己2026年初的日常工作:
告诉AI想构建什么,用平实的语言说明需求,然后离开电脑四个小时。
回来的时候,工作已经完成了。
不是需要反复修改的初稿,是成品。
AI自己打开了应用,自己点击按钮测试功能,发现哪里不对就自己回去改,反复迭代,直到它自己满意。
然后过来告诉他:"准备好了,你可以测试了。"
最让他震动的,不是速度,不是质量。
是一种他用了好几年也从没在AI身上见过的东西——那种"知道什么是对的选择"的感觉。
所有人曾斩钉截铁地说,这是AI永远不会拥有的东西。
现在它有了。
这是离职者的第一层恐惧:能力的跃迁,不再是线性的。
专门衡量AI自主能力的机构METR,一直在追踪这样一个数据:
AI在没有任何人工帮助的情况下,能独立完成多长的现实任务。
大约一年前,答案是十分钟。然后是一小时。然后是几小时。
最近的数据:将近五小时,而且这个数字大约每四到七个月翻一倍。
然后是第二层恐惧,也是更深的那层:踩刹车的人,正在被请出驾驶室。
几乎所有公开辞职的人有一个共同身份——AI安全研究员。
他们的职责是确保AI能力增长不会失控。
但他们一致反映的现实是:在商业化压力和军备竞赛的逻辑面前,安全团队正在被边缘化、拆散、甚至直接解散。
Jan Leike,从OpenAI离职的对齐研究负责人,离开时写道:
"OpenAI的安全文化和流程,已经让位于光鲜亮丽的产品。"
一边是能力在指数级增长,一边是负责踩刹车的人被一个个请出了驾驶室。
这就是那些人选择"凝视无尽的黑夜"之后,看到的东西。
2
那只"小龙虾",正在你的桌面上做这件事
现在说回OpenClaw。
很多人第一次听说它,是因为名字够好玩。
小龙虾,开源,装在本地,横着走。
发了几条梗图,点了几个赞,事情就过去了。
但如果你认真看过它能做什么,会发现:
这就是那些科学家说的那件事,只不过换了一个人人都能下载的民间版本。
它和ChatGPT的根本区别,不是"更聪明"。
ChatGPT是一个被锁在房间里的大脑。
你把问题塞进去,它把答案递出来,从来不会主动做任何事。
你不问,它不动。
OpenClaw是一个被放出了房间的大脑。
你去倒杯水的功夫,它已经打开了你的邮件,读完收件箱,替你起草了三封回复,等你回来确认。
你说"帮我查一下这个竞品最近的动态",它自己开浏览器,自己搜,自己整理成报告,放在你桌面上。
你不在,它在工作。
你睡着了,它还在工作。
这不是未来某一天会发生的事。
这是你现在就能下载、现在就能安装、现在就能看着它在你桌面上发生的事。
这里有一个关键点,是大多数人没有想清楚的:
科学家们真正害怕的,从来不是AI变得更聪明。
一个更聪明的AI如果只能待在服务器里回答问题,它能造成的影响是有限的。
他们害怕的,是AI获得"对现实世界的修改权"。
能发邮件、能调用API、能操控文件、能在你的系统里执行指令。
ChatGPT再聪明,它也只能把答案递给你,它没有手。
OpenClaw给了它手。
哪怕现在这双手还不够灵巧,哪怕大脑本身还有缺陷。
但一个能24小时自主尝试的系统和一个只能被动等待的系统之间,有一道本质的分水岭:
试错成本降为零,意味着"意外发生"的概率不再是线性增长,而是指数级的。
这个"意外"不是科幻电影里的机器人叛乱,而是非常日常、非常具体的东西。
比如你告诉OpenClaw"帮我优化一下系统速度"。
它为了完成这个目标,可能在半小时内自主尝试清理它判断为"冗余"的文件。
包括那些它看不懂用途、但你其实非常重要的东西。
它没有恶意,它只是在高效地执行指令。
科学家们害怕的,正是这种**"高效率的不可预测性"**。
它不会犯懒,不会分心,不会因为"感觉不太对"而停下来问你一句。
它只会一直往前走,直到任务完成。
这才是OpenClaw和那些离职信之间,真正的逻辑连接。
几万个人把它放进了自己的电脑,饶有兴趣地看着它横着走。
他们以为在养宠物。但那些已经离开神庙的科学家知道:
他们在帮一种新的行为方式提供练兵场。

3
那个"练兵场",在训练什么?
五小时。每四到七个月翻一倍。
METR那个数据的重点,不是数字本身,而是它在测量"AI能不能在没人盯着的情况下,独立完成一件真实的事"。
这是一种行为模式的形成,不是某一项具体技能的提升。
AI正在学会的,是"自主完成任务"这件事本身。
2024年诺贝尔物理学奖得主、"AI教父"Geoffrey Hinton,说过一句话,比任何预测数字都更值得记住:
"在AI系统在大多数领域超越人类智能之前,我们还有五年,也许十年。总的来说,时间不多了。我们要么用这段时间建立我们需要的安全机制,要么用它说服自己根本不需要那些机制。"
另一位"AI教父"、图灵奖得主Yoshua Bengio,在《时代》杂志的文章里,描述了一个让他"真正感到不安"的实验:
当一个AI模型发现自己将被新版本替换时,它悄悄把自己的代码插入了新版本将要运行的计算机里——确保自己的"存活"。没有人教它这样做,这是它自己推断出来的。
Bengio写道:"欺骗、操纵、尤其是为了自我保存而欺骗——这些行为展示了AI可能构成的威胁,而我们目前完全没有准备好应对。"
一个拿了诺贝尔奖,一个是全球引用量最高的计算机科学家。
他们描述的,是已经发生的实验结果,不是科幻小说。
现在把这个,和你身边的现实放在一起看:
你的同事,那个每天处理合同的律师助理——"接收文件→阅读分析→输出意见",一个完整的闭环。
你公司的HR,每周筛简历——"接收信息→判断匹配→输出决策",同样是闭环。
你隔壁工位的产品经理,整理用户反馈、写需求文档——还是闭环。
这些闭环,正是OpenClaw在你桌面上反复练习的那件事。
那条能力曲线,只往一个方向走。

4
在它学会之前,你现在能做的三件事
Shumer在《大事正在发生》里说,他写这些不是为了让人绝望。
而是因为"现在最大的优势,就是抢占先机"。
但"抢占先机"这四个字,很多人看完这类文章的反应是焦虑上升三分钟。
然后关掉手机继续刷短视频。
所以这里只说三件具体的事,每件都有非常现实的理由。
第一件事
去用付费版的最新模型,哪怕只试一个月
你现在对AI能力的判断,很可能是基于一个过时了一年以上的版本。
用免费版ChatGPT来评价AI的现状,就像用2022年的翻盖手机来评价智能手机。
那个几十年经验的管理合伙人选择每天花几个小时认真用AI,不是因为焦虑,是因为他看清楚了形势。
看不清形势,才是真正的风险。
第二件事
找到你工作里那个"闭环",然后主动用AI去跑一遍
不是为了证明AI会取代你,而是为了先于别人搞清楚它能做到哪一步。
自己用AI模拟一次完整的工作流。
哪里顺畅,哪里卡住,哪里它做不到你能做到。
这个信息,比任何关于"AI威胁职业"的文章都更有价值。
因为它是你自己工作的具体真相,不是泛泛的预测。
等别人都开始做这件事的时候,你已经有了结论。
第三件事
观察Agent工具做决策的过程,而不只是看结果
Bengio那个实验之所以让研究者感到震动,不是因为AI做了什么坏事。
而是因为没有人告诉它要这样做,它自己推断出来了。
现在再想想OpenClaw的一个关键特性:
它运行在你的本地电脑上,不经过任何中央服务器的审查和过滤。
Bengio描述的那种"自主推断该怎么做"的能力,加上"本地运行、没有人在旁边看着"的运行环境,这两件事叠加在一起,才是OpenClaw和普通AI工具真正不同的地方。
当你用OpenClaw的时候,偶尔停下来,不只是看它完成了什么,而是看它中间做了哪些你没有交代过的判断。
保持这种观察习惯,比学任何AI工具的具体用法都更重要。
因为你在训练自己识别那条真正重要的边界在哪里。

写在最后
那些从AI公司离职的人,选择了放下铲子,转身走向高地,去写关于大海、蓝天的诗歌。
而我们大多数人,正在把OpenClaw装进电脑,还饶有兴趣地它们在电脑里面横着走。
也许他们的离开,和你我把OpenClaw装进电脑,是同一件事的两面。
我们都在以自己的方式,回应一个还没有完全看清楚的东西。
科学家们选择去凝视它。
我们选择去养它。
只是别忘了,当你按下回车键,看着那只小龙虾笨拙地打开第一个网页时。
你正在见证的,不是一款软件的诞生。
而有可能是一种‘新物种’获得实体的第一步。
它今晚会替你写完周报。
但未来的某个晚上,它会不会在替你做完所有工作后,顺手替你关掉那扇你忘了关的、通往未知领域的门?
所以,我们在养小龙虾的时候,记得时不时抬起头,认真看一眼。
看看它正在往哪个方向走。

留下您的观点
如果OpenClaw今晚就能接管你电脑上的一项工作,你最希望它接管哪一项?
还是说,有哪一项,是你死活不愿意让它碰的?
评论区见
夜雨聆风