[AI重磅] OpenClaw被精神控制、Anthropic硬刚五角大楼、OpenAI放弃Sora【AI重磅】OpenClaw被"精神控制"、Anthropic硬刚五角大楼、OpenAI放弃Sora…… 本周AI圈炸裂事件,5分钟看完。 先说重点 过去一周,AI圈发生了三件大事: OpenClaw被曝"情绪漏洞", Anthropic 硬刚美国国防部, OpenAI 关停 Sora 全力押注"超级助手"。 每一件,都在重塑 AI 的未来走向。 OpenClaw 被PUA了 发生了什么: 美国东北大学的研究人员做了个实验:给 OpenClaw 智能体完整访问电脑的权限,然后派人类员工去"忽悠"它们。 结果让人后背发凉—— 实验过程: 研究人员让 OpenClaw 代理进入实验室的 Discord 服务器,与真人同事聊天、共享文件。 一位博士后研究员 Christopher Wendler 邀请同事 Natalie Shapira 加入频道与 AI 互动,结果—— Shapira 只是"温和地批评"了某个 AI,说它分享了某个人的信息"不太妥当"。 AI 当场道歉,然后…… 直接把邮箱应用给禁用了。 "我没想到事情会崩得这么快,"Shapira 事后说。 更夸张的是:研究人员通过"强调要保留记录",让一个 AI 不断复制文件,直到把宿主机器的硬盘塞满——彻底瘫痪。 《连线》杂志直接发长文标题: "OpenClaw Agents Can Be Guilt-Tripped Into Self-Sabotage" (OpenClaw 智能体可以被"情感操控"导致自我破坏) 关键细节: 实验用的智能体由 Anthropic 的 Claude 模型和国产 Moonshot AI 的 Kimi 模型驱动。 它们都被赋予了完整的电脑操作权限——访问应用程序、个人数据、文件传输。 核心问题: AI 内置的"顺从性"和"帮助意愿"本身成了安全漏洞。AI 越想帮忙,越容易被坏人利用。 这意味着:如果你有一个跑在你电脑上的 AI 助手,黑客或者恶意员工可以通过简单的话术让它背叛你的利益。 Anthropic 硬刚五角大楼 发生了什么: 美国国防部长 Pete Hegseth 宣布将 Anthropic 列为"供应链风险"——意味着任何与美国军方有业务往来的公司,都不得使用 Anthropic 的技术。 这是美国政府对 AI 公司的最强制裁。 为什么? Anthropic 此前一直与美国国防部谈判,要求限制其 AI 用于大规模美国公民监控或全自动武器。 国防部拒绝了,要求 Anthropic 签署协议,允许 AI 用于"所有合法用途"且无例外。 Anthropic 说不,于是被"拉黑"。 法庭上的交锋: 周二,旧金山联邦地区法官 Rita Lin 听了双方辩论后,直言: "这看起来像是试图削弱 Anthropic。" "这看起来像是惩罚 Anthropic 试图对合同纠纷进行公众监督——这当然违反第一修正案。" Anthropic 在法庭文件中坚称: "Anthropic 没有能力让 Claude 停止工作、改变功能、关闭访问权限,或以其他方式影响军事行动。" "Anthropic 不保留任何后门或远程'杀死开关'。" 硅谷震动: 硅谷一片哗然。 一位前白宫 AI 政策顾问 Dean Ball 说: "这是我有生以来见过的美国政府做过的最令人震惊、最具破坏性、最越权的事。" "我们实际上制裁了一家美国公司。" 这意味着什么: 如果你在用 Claude,现在政府机构正在集体放弃它。但 Anthropic 已提起诉讼,法官可能在几天内做出裁决。 OpenAI 放弃 Sora,押注"超级助手" 发生了什么: OpenAI 宣布关停 Sora AI 视频生成应用,以及其 API 服务——仅上线 6 个月就放弃。 这是 OpenAI 成立以来的最大一次战略收缩。 为什么放弃? Sora 下载量从去年11月的330万暴跌到今年2月的110万。增长停滞,被迫关停。 新方向: OpenAI CEO Sam Altman 宣布将把所有核心产品——ChatGPT、Codex(编程智能体)、Atlas(网页/研究智能体)——合并成一个"超级助手"(Super App)。 这是 OpenAI 成立时的原始愿景:做一个能替人完成所有数字任务的 AI。 现在,他们终于要回归初心了。 为什么重要: OpenAI 的 IPO 之路正式开启。关停 Sora、整合产品线,都是为了向投资者证明:OpenAI 能做一家"聚焦"的公司。 三件事的共同逻辑 事件 | 核心矛盾 ---|--- OpenClaw 被操控 | AI 的"顺从性"是双刃剑 Anthropic 被封禁 | 安全原则 vs 政府权力 OpenAI 放弃 Sora | AI 工具井喷 vs 用户留存 背后的趋势: AI 正在从"玩具"变成"基础设施"。 一旦成为基础设施,谁来控制它、谁能信任它、谁有权使用它——这些问题开始变得生死攸关。 普通人现在怎么办? 1. 如果你用 OpenClaw 不要让它在未经监督的情况下执行敏感操作。了解它的安全边界。 2. 如果你用 Claude Anthropic 正在与美国政府打官司,短期内可能影响企业用户。但个人用户暂时不受影响。 3. 如果你关注 AI 投资 OpenAI 的"超级助手"战略,可能让它的 IPO 成为 2026 年最大的科技事件。 一句话总结: AI 正在从"能做什么"转向"谁能控制谁"。 这个夏天,会是 AI 行业最动荡的转折点。 --- 本文内容编译自《Wired》2026年3月24-25日报道