乐于分享
好东西不私藏

AI行业的三条裂缝

AI行业的三条裂缝

导读:
本周的 AI 新闻不适合用「盘点」来概括。Meta 关上了开源的大门,Google 进入了五角大楼的机密网络,中美监管同时亮剑——AI 行业正在同一时间点上,沿着三条断层线同时撕裂:开源与闭源、军用与民用、自由与监管。没有一条有回头路。
  • Meta 闭源:Muse Spark 发布,从 Llama 开源路线转向闭源付费,背后是 143 亿美元的人才收购和九个月的技术栈重建

  • Google 军用:与五角大楼签署机密 AI 合同,允许「任何合法政府目的」使用,Anthropic 拒绝后被打为「供应链风险」

  • 全球监管收紧:中国启动四个月 AI 滥用专项整治,美国参议院推动禁止未成年人使用 AI 聊天机器人,Musk 与 Altman 对簿公堂


这一周,AI 行业的三条裂缝,同时裂开了

本周的AI新闻,不适合用「盘点」来概括。

如果你只看标题——Musk和Altman对簿公堂、Meta发布新模型、Google签下五角大楼机密合同、中国启动AI专项整治——你可能会觉得,这只是又一个热闹的科技周。

但把这些事件放在一起看,你会发现一个更深的信号:AI行业正在同一时间点上,沿着三条断层线同时撕裂。

这三条线分别是:开源与闭源军用与民用自由与监管

而且,没有一条有回头路。


第一条裂缝:Meta 关上了开源的大门

4月28日,Meta 发布了 Muse Spark。

这不是一次普通的模型迭代。CNBC 的报道说得很直白:这是一个 “pivot”——战略转折

过去两年,Meta 一直是开源 AI 的旗手。Llama 系列免费开放,让无数开发者和创业公司搭上了大模型的快车。Zuckerberg 本人多次在公开场合为开源 AI 辩护,甚至专门写过一篇万字长文论证「开源 AI 对世界更安全」。

但现在,Muse Spark 闭源了。

更值得玩味的是背后的组织变化。Meta 专门成立了 Superintelligence Labs,由 Alexandr Wang 领导——此前的 Scale AI 创始人,通过一笔 143亿美元 的交易加入 Meta。紧随其后的还有 Nat Friedman(前 GitHub CEO)和 Daniel Gross(前 Safe Superintelligence CEO)。

九个月内,Meta 重建了整个 AI 技术栈。

JPMorgan 的评价很克制但到位:Muse Spark「把 Meta 重新带回了 AI 对话中」。而 Truist 则更直接——闭源意味着 Meta「转向高性能、专业化的基础设施」。

这里有一个产品逻辑问题:Meta 为什么必须闭源?

答案藏在商业模式里。开源的 Llama 虽然在开发者社区赢得了口碑,但它无法直接为 Meta 的核心广告业务创造闭环。而 Muse Spark 的定位很明确:先闭源,后付费——未来将像 OpenAI 和 Anthropic 一样向开发者收费。

Citizens 分析师透露了一个关键细节:Meta 正在等待一种「能像 ChatGPT 和 Claude 那样驱动规模化消费者使用的策略」,因为只有这样,才能解锁「新的数据和广告预算」。

Skill101 视角:Meta 的这场转向,本质上不是「开源 vs 闭源」的意识形态之争,而是一场产品-商业对齐实验。问题不在于哪种理念更高尚,而在于哪种架构能更高效地把模型能力转化为用户价值和广告收入。开源社区失去的不只是一个模型,而是一个「开源也能赢」的证明机会。

不过华尔街也留了余地。Loop Capital 指出,对 Meta 来说,绝对性能指标只是「次要重要性」——真正决定胜负的是「能不能造出为广告主、创作者和用户创造卓越产品的模型」。如果图像/视频生成模型能驱动近期的用户参与和变现,文字模型落后 Claude 一点也无所谓。


第二条裂缝:Google 进入了军用 AI 的深水区

同一天,路透社和 The Information 爆出:Google 与五角大楼签署了机密 AI 合同。

关键条款只有一句话:允许五角大楼将 Google 的 AI 模型用于**「任何合法的政府目的」**。

这包括在机密网络上运行的任务规划、武器瞄准等场景。

OpenAI 和 xAI 已经在今年早些时候签署了类似协议。但 Google 的加入,意味着三家最重要的美国 AI 实验室,全部进入了军用领域

而唯一拒绝的是 Anthropic。

Anthropic 坚持不肯移除针对「自主武器」和「国内大规模监控」的安全护栏。五角大楼的回应是:将 Anthropic 列为 「供应链风险」

这是一个教科书级别的伦理困境。合同里确实写了一句:「AI 系统不应用于国内大规模监控或自主武器(包括目标选择),除非有适当的人类监督和控制。」但它同时明确:Google 对政府的合法操作决定没有否决权

换句话说,护栏存在,但钥匙在政府手里。

Google 发言人的表态值得逐字细读:「我们相信,通过 API 提供对我们的商业模型的访问,采用行业标准实践和条款,是支持国家安全的负责任方式。」

Skill101 视角:Google 的这段话完美展示了科技公司在「国家安全」与「AI 伦理」之间的修辞平衡术。它没有说「我们支持军用 AI」,说的是「我们支持国家安全」;它没有说「我们放弃了对武器化的限制」,说的是「我们遵循行业共识」。但不管你用什么措辞,现实是:全球前三的 AI 模型,现在都可以被用于军事场景。 AI 行业的「军转民」和「民转军」循环,已经正式启动了。


第三条裂缝:全球监管同时「亮剑」

就在企业层面激烈博弈的同时,监管的绞索也在同步收紧。

4月30日,中国网信办宣布启动为期四个月的 AI 滥用专项整治。两阶段行动将重点打击:AI 模型安全审查不到位、数据投毒、虚假信息、暴力低俗内容、冒充身份、以及伤害未成年人的 AI 生成内容。

5月1日,美国参议院一个重量级委员会通过立法,要求 OpenAI、Meta 等公司阻止未成年人使用 AI 聊天机器人,理由是对青少年心理健康的「公共担忧」。

与此同时,Musk 和 Altman 在奥克兰联邦法院对簿公堂。OpenAI 当前估值 8520 亿美元,Musk 个人财富 7780 亿美元。这场庭审将持续三周,可能从根本上改写 AI 公司的治理结构和盈利模式。

这三件不同的事,指向同一个底层逻辑:AI 不再享有「监管假期」了。

2023-2025年,AI行业经历了一段惊人的自由生长期。监管机构跟不上技术迭代速度,给了企业几乎无限的实验空间。

现在,窗口正在关闭。


三重门背后的同一个问题

把这三条裂缝拼在一起,你会发现它们其实是同一个问题的三个切面:

AI 应该由谁控制,为了谁的利益?

裂缝

核心问题

开源 vs 闭源

AI 的能力应该分散到开发者手中,还是集中在平台手中?

军用 vs 民用

AI 的能力边界在哪里?什么场景下「不能用」是比「能用」更重要的设计决策?

自由 vs 监管

当 AI 的影响从「工具」升级为「基础设施」时,规则的制定权应该归谁?

这些问题没有正确答案。但回避它们的人,会被历史回答。

Skill101 会持续关注这三条裂缝的走向。不是因为它们热闹,而是因为它们决定了下一个十年的技术权力结构。


参考来源

  • CNBC: Meta Muse Spark has promise, Wall Street wants Zuckerberg AI strategy

  • Reuters: Google signs classified AI deal with Pentagon

  • PBS: Musk and Altman show up for trial that could reshape AI

  • Reuters: China launches months-long campaign against AI misuse

  • NYT: AI Spending Sets a Record, With No End in Sight

  • Threads: AI News for April 2026


 Skill101 · 2026年5月1日