这就叫——硅谷式"安全"的真相
4月11日,科技圈炸锅了。
OpenClaw创始人Peter Steinberger在X上发了一张截图,配文:"好吧,以后想确保OpenClaw继续支持Anthropic模型,怕是要更费劲了。"
截图内容是Anthropic发来的账号封禁通知——"您的账户因可疑活动已被暂停"。
注意几个关键词:OpenClaw,那个让AI助手帮你操控一切的开源Agent框架;Peter Steinberger,著名独立开发者;以及Anthropic,估值超过600亿美元、号称"最安全AI"的Claude缔造者。
更讽刺的来了:Steinberger现在在OpenAI上班。
而Anthropic,曾经给他发过律师函。
一封通知,炸出整个AI圈的行业伦理
事情经过并不复杂:
4月11日周五凌晨,Steinberger突然发现自己的Claude账号无法登录。Anthropic的邮件写得冠冕堂皇——"可疑活动"。什么可疑活动?没说。
他直接把截图发到了X上。
几个小时后,帖子病毒式传播,几百条评论涌入。Anthropic的工程师亲自下场,告诉他"我们从来没封过OpenClaw用户",然后帮他解了封。
你看,这剧情是不是很眼熟?
先封号,再调查,最后假装什么都没发生。这套路,运营商看了都直呼内行。
"一个欢迎我,一个给我发律师函"
Steinberger在评论区留下了一句点睛之笔:
"一个公司欢迎我加入,另一个给我发了律师函。"
这话说的是Anthropic和OpenAI。
有意思的是,Anthropic和OpenAI,这两家被公认"最重视AI安全"的公司,在人才竞争上的吃相,正在变得越来越难看。
2024年,Anthropic以"AI安全"为名,获得了来自Google和Amazon的超过80亿美元投资。如今,它的估值已经超过600亿美元。
而OpenAI呢?一边说着"AI改变世界",一边疯狂挖人,给的工资高到可以让人忽略所有的价值观宣言。
Steinberger的遭遇,撕开了这层窗户纸。
OpenClaw是什么?为什么它被针对了?
简单科普一下:
OpenClaw是一个开源的AI Agent框架,全球有超过50万开发者在使用它。它能让你用自然语言操控电脑、发邮件、管文件、跑自动化流程。
它支持Claude,也支持ChatGPT,还支持DeepSeek。
问题来了:Anthropic为什么要封禁一个开发者的账号?
官方没有解释。从技术上说,OpenClaw确实有一些"非标准用法"——比如它会模拟用户操作,会自动化执行各种任务。这些行为在某些AI公司的风控系统里,确实可能被标记为"可疑"。
但问题是:
- 封号之前有没有任何警告?
- 有没有明确的违规说明?
- 解封之后有没有道歉?
一个都没有。
AI大厂的风控系统,正在成为新的"网络长城"
这几年,我们见过太多类似的场景:
- Google封禁中国开发者账号,说是"安全风险"
- GitHub时不时封禁某些国家的IP段
- AWS悄悄关停某些客户的服务器
- 现在,Anthropic封禁OpenClaw创始人
每一次,官方都说"为了安全"。
每一次,当事人都一头雾水。
所谓的"安全",有时候只是利益最大化的遮羞布。
当一个AI公司发现它的最大客户,同时也在帮竞争对手训练模型;当它发现一个开发者在为"敌方"工作——它会怎么做?
从Anthropic的实践来看:先封再说。
硅谷的"AI伦理",正在成为新的贸易壁垒
Anthropic的招聘负责人曾经说过一句话,大意是:"我们不只在乎模型有多强,我们在乎模型被谁用来做什么。"
听起来很负责任,对吧?
但转头,他们就把一个独立开发者因为"在OpenAI工作"而封了号。
这不叫安全。这叫技术霸权。
当AI公司的"价值观"开始服务于商业竞争,当"安全审查"变成技术冷战的工具,我们离真正的AI灾难就不远了。
讽刺的是,这些公司一边呼吁"AI要造福人类",一边用最粗暴的方式对待那些质疑它们的人。
结语
好消息是:Steinberger的账号已经被解封了。
坏消息是:这个故事折射出的AI权力问题,才刚刚开始。
下一次,当你在社交媒体上看到某个开发者突然消失,别急着怪平台。先问一句——
他动了谁的蛋糕?
夜雨聆风