乐于分享
好东西不私藏

5.3 AI大事记

5.3 AI大事记

五角大楼选了7家AI公司,唯独踢了Anthropic,安全还是生意?
2026年5月3日,AI行业在地缘博弈、监管治理和算力拐点三个维度迎来历史性时刻

今天这篇,我想聊聊AI行业的’安全悖论’。

五角大楼签了7家AI公司——SpaceX、OpenAI、Google、微软、英伟达、AWS、Reflection AI——在机密网络部署AI系统。只有一家公司不在名单上:Anthropic。不是因为技术不行,而是因为他们太坚持’安全’了。

Anthropic拒绝取消军事AI使用的安全护栏,包括自主武器限制。于是五角大楼说:你是供应链风险。

大多数人没注意到这件事有多荒诞。Anthropic是全球AI安全研究的标杆,他们发明了Constitutional AI,他们坚持’AI不能用于伤害人类’——然后国防部说,你不配合,你就是风险。更戏剧性的是,联邦法院已经下达禁令阻止这个黑名单,因为把一家’太安全的公司’列为’不安全’,本身就违反逻辑。

说句不好听的,这件事戳破了AI行业最大的谎言:我们一直以为AI安全是技术问题,但实际上它是政治问题。当军方需要的是’能用就行’,而AI公司说的是’不行,这太危险了’,最终胜出的往往不是更安全的那一方。

但今天真正让我感到震撼的,是另一个数字:52%。

中国AI推理算力占比首次超过训练算力,52%对48%。这个数字听起来无聊,但它代表的是整个行业的历史性拐点——AI从’怎么做模型’进入了’怎么用模型’的时代。训练时代的AI是实验室里的艺术品,推理时代的AI是工厂里的流水线。

六大科技巨头2026年AI资本支出预计突破7000亿美元。7000亿美元什么概念?相当于全球电影产业一年的总收入。这些钱不会再投向’哪个模型更聪明’的竞赛,而是会投向’哪个模型能更便宜、更快、更稳定地跑起来’的基础设施。

OpenAI找高通做手机芯片,Google Photos帮你用AI搭配衣服,快手KroWork让普通人用自然语言生成应用——这些看起来不性感的产品,恰恰是推理时代真正值钱的东西。因为它们回答了一个训练时代从来不回答的问题:用户愿意为什么付费?

中国的’清朗行动’也在同一天落地。整治大模型备案违规、深度伪造、’数字泔水’——听起来是限制,但实际上是行业成熟的标志。任何一个行业,从野蛮生长到规范治理,都是它真正变得值钱的开始。互联网经历了这个过程,AI正在经历同样的过程。

我的看法很明确:2026年的AI行业,正在经历三重拐点。军事上,AI安全从伦理问题变成地缘政治筹码;监管上,全球从’要不要管’进入’怎么管’;算力上,从训练竞赛进入部署竞赛。

这三条线看起来不相关,但背后是同一条逻辑:AI不再是科技公司的玩具,它正在成为国家、产业和普通人真正依赖的基础设施。

Anthropic被五角大楼踢出名单的那天,恰恰证明了他们坚持的安全理念有多重要。因为当AI真正变得无处不在时,最需要警惕的不是AI太弱,而是AI太强——强到连’安全’都可以被定义为’风险’。