推文发出当日,PLTR股价V型反弹5%,以及ARK Invest 木头姐Cathie Wood披露斥资约1100万美元买入85,485股,共同推动股价扭转了此前一周14%的跌势。
也就是特朗普这条几乎等于荐股的推文,以及各种群里的调侃,让我开始好奇,为什么总统先生居然会这样亲自支持一家科技AI公司?这样两家公司为什么会在几乎同一时间段面临着截然不同的美国政府“待遇”?
45天前的伊朗上空
让我们首先把时间回到一个半月前的2月28日,这一天,人类历史上规模最大的AI辅助军事行动正式启动。
针对伊朗代号"史诗狂怒"的行动,在开始后的24小时内完成了约1000个目标的精准打击,三周内累计打击5500至6000个目标。这个执行节奏,被五角大楼官员直接归功于AI辅助作战系统。
支撑这一切的,不是新型武器,而是一套软件——Palantir的Maven智能系统。Palantir的Maven Smart System(MSS)目前是美军AI核心平台,用于处理海量战场数据,支持对伊朗的实时精确打击。系统基于Anthropic的Claude AI,分析卫星图像、无人机视频等,生成目标选项并加速决策。
五角大楼首席数字与AI官员卡梅伦·斯坦利在公开演讲中描述了这个变化:"我们把从识别目标、制定方案到实施打击的全流程,整合进了一个系统。以前这需要八到九套系统,人工在其间反复倒腾数据。现在,几下点击,就变成了一个可执行的打击决策。这是革命性的。"
以往,完成伊拉克战争规模的打击,需要约两千名情报分析师持续作业。现在,Maven将人类分析师需数日的工作压缩至分钟,通过目标识别、打击规划和损伤评估(如爆炸半径估算)实现“杀伤链”加速,据报道只需约二十人在几乎一杯咖啡的时间,就可以完成过去几千人数周的工作。
自2026年2月底美以对伊朗行动启动,Maven已辅助数千次打击,包括首日千余目标准备,用于伊朗本土轰炸和中东作战。 3月9日,五角大楼副部长备忘录正式将其列为“核心项目”,确保跨军种长期部署和预算支持。
而在这套系统的核心分析层,实际上也还运行着另一家公司的产品:Anthropic的Claude。
同一个模型,两种命运
美伊冲突的同时,2026年科技地缘政治中最具戏剧性的一幕也在同时发生:
Claude被嵌入Maven,负责综合分析卫星图像、截获通信和历史档案,生成包含GPS坐标、武器建议和自动化法律依据的优先打击清单。
然而,就在行动开始前一天:
2026年2月28日,"史诗狂怒"主要打击阶段开始前24小时,特朗普政府宣布将Anthropic列为"国家安全供应链风险",命令所有联邦机构六个月内停用Claude。
这个矛盾不是偶然的失误,而是整件事最深刻的注脚。虽然实际上这家拒绝为自主武器开放接口的AI公司,正在为人类历史上最大规模的AI辅助军事行动提供分析层——而它被封禁的理由,恰恰是拒绝走得更远。
事情的起点在两个月前。五角大楼要求Anthropic允许Claude用于"所有合法用途"。Anthropic的回应则是坚守两条红线:不允许用于完全自主武器,不允许对美国公民进行大规模监控。
Anthropic 的创始人Dario Amodei说,他"凭良心"无法接受。
国防部长赫格塞斯随即将其列入黑名单。特朗普在采访中说:"我像解雇狗一样解雇了他们。"
但就在本周,Anthropic开始要求部分用户提交护照才能继续使用Claude,理由是"负责任地使用强大技术,从知道是谁在使用它开始"。
用户的反应也很直接:"我因为担心监控才来用Claude,结果现在它要我的护照。"另一个更为广泛传播的评论是:"为了证明你不是机器人,你现在要把政府证件交给一个机器人——讽刺已经登峰造极。"
坚守安全底线,同时提交你的证件。这两件事居然同时成立。
主动拥抱与被动召唤:两种路径,同一个终点
理解这场博弈,需要先看清楚Palantir和Anthropic走的是两条完全不同的路。
Palantir的创始人Alex Karp是哲学家出身,但立场从不含糊。他在公开演讲中说:"如果你以为我们在战争开始后不会支持战士,那你找错公司了。我们为确保美国士兵能平安回家而骄傲,有时候这意味着对方回不了家。我们同样为此骄傲。"
Palantir的逻辑是主动拥抱:从一开始就把自己定位为"西方民主国家的武器",在被问及AI的潜在风险时,Karp说:"AI可能在很多方面出错。但我要说的是,我们需要承担很多风险,因为这将要么对我们有利有弊,要么对中国有利有弊。
用Karp的话说,"在AI领域,世界不再是多级的,而是锁定在美中之间的双马赛,而第二名意味着消亡" ——所以没有中间路线,没有中立可言。
Anthropic的逻辑是被动召唤:试图维持安全优先的形象,坚守伦理红线,但结果是仍然以"分析层"的形式深度嵌入了战场——被封禁时Claude还在运行,因为六个月的过渡期还没结束。
Karp对这类公司的判断毫不客气:"如果硅谷一边要抢走所有人的白领工作,一边还要跟军方作对,如果你以为这不会导致政府将你们的技术国有化,那你真是……特别蠢。"
看似两条路,但最后的结果却殊途同归:
最终Palantir在战场上,Claude也在战场上。
为什么技术中立是结构性的幻觉
这不是企业选择的问题,而是大国博弈结构的必然产物。
第一重结构:资本与战争的共生
Palantir的市值在伊朗战争期间逼近3600亿美元。Maven合同从2024年的4.8亿美元扩展至2025年的13亿美元,陆军另有100亿美元的独立框架协议。
AI战争已经成为硅谷的重要利润中心,形成了一个在持续冲突中具有直接财务利益的强大群体。这种结构一旦形成,"不参与"本身就是一个不可持续的选项。
第二重结构:囚徒困境的无解逻辑
美国和中国在军事AI上面临标准的囚徒困境:双方都会因克制而更安全,但每一方都在加速,因为没有人愿意成为那个单边克制的输家。美国的AI行动计划在口头上关注AI危险,实质上将美国技术栈的全球主导权置于优先地位;中国的全球AI治理行动计划同样援引AI安全,同时推进自身的技术民族主义议程。
在这个框架里,任何单一企业的伦理自律,都只能是在博弈均衡被确立之前的暂时姿态。Anthropic今天守住了红线,但Claude的分析能力已经在战场上运行——这不是矛盾,这是技术扩散在大国博弈环境中的必然现实。
第三重结构:基础设施既是战略资产,也是靶点
伊朗的反制策略,是直接打击亚马逊在阿联酋和巴林的数据中心——目标不是军事基地,而是支撑美军AI能力的商业云基础设施。
Karp对此的解读是:"他们不蠢。看看被打击的目标名单,再看看没有被打击的。我们处于战争中间,你当然希望名单上全是硬核军是公司,但他们也瞄准他们自己无法生产的东西。"
这意味着技术基础设施和军事目标之间的边界,已经在这场冲突中被永久性地被模糊甚至抹去。谷歌的服务器、微软的云、Anthropic的模型——它们不再是中性的商业工具,而是大国博弈的战略资产,以及潜在的打击目标。
AI基础设施作为战略资产也已经是打击目标,技术中立性在此时只能是结构性的幻觉。
历史的弧线从未弯向中立
这不是2026年才开始的故事。
2017年,谷歌参与初代Project Maven,为五角大楼的无人机侦察视频做AI分析。2018年,近四千名员工联署抗议,谷歌宣布退出,并发布了内部AI伦理原则。Palantir接管合同,此后一路做大。
谷歌的退出,换来了道德上的清白,换来了员工的掌声,也换来了Palantir市值翻数十倍的机会。
今天,Anthropic守住了"不做自主武器"的红线,但Claude仍然在战场上运行,只是以"分析工具"的名义。OpenAI原本也有类似的军事限制条款,但在Anthropic被封禁之后,迅速宣布与五角大楼签署新协议,填补了Anthropic留下的空白。
每一次有公司试图后退,总有别的公司填上去。这个位置不会空着。
虽然,目前有超过120名美国国会民主党议员要求国防部解释:AI在那次击中伊朗一所女子学校、造成至少175人死亡(其中多数为儿童)的打击中,扮演了什么角色。他们的问题直接指向Maven系统——是否用AI识别了该学校作为目标?如果是,人工核验是否发生?
只不过这个问题至今没有得到公开回答。
三重警示
以下三点,或许是对国内战略研究者和宏观政策关心者最重要的提示。
警示一:技术依赖就是战略脆弱性,没有例外
Maven的数据融合架构运行在AWS上,分析层是Anthropic的Claude。当伊朗开始打击AWS数据中心,目标逻辑已经说明了一切。任何关键基础设施——金融系统、通信系统、能源调度——如果其AI能力依赖于他国技术栈,这条依赖链本身就是可被攻击的节点。这不是假设,是2026年已经发生的现实。
警示二:"AI安全"叙事是地缘政治工具,需要穿透表层来理解
Anthropic的Mythos事件中,欧盟公开支持其推迟发布的决定,将其定性为负责任的AI治理。
但同时Anthropic因坚持"安全优先"而被封禁,而其模型仍在战场运行,本周它又开始向用户索取护照和身份确认。这三件事居然同时成立且互不矛盾。
正如新加坡国立大学亚洲研究院指出的,美国AI行动计划在口头援引AI安全的同时,其实质目标是确保美国技术栈的全球主导——这两件事在华盛顿的决策层根本不是矛盾的。
“AI安全”与”AI武器化”并非对立的两端,而是同一系统在不同语境下的两种表达。理解这一点,或许才是评估任何西方AI治理叙事的基本前提。
警示三:Karp的世界观正在成为现实的底层逻辑
"它要么对我们有利有弊,要么对中国有利有弊。" 这句话不是一家公司的偏激立场,而是正在成为美国技术政策的操作逻辑——芯片出口管制、云服务准入、AI模型许可,每一项政策工具的背后,都是同一个二元框架在驱动。
在这个框架彻底固化之前,留给战略选择的窗口正在收窄。中国的主权AI布局——算力自主、模型自主、数据基础设施自主——不是可选项,而是在这个结构性压力下唯一可持续的路径。问题不是"是否需要",而是"够不够快",以及"在真正需要的那一刻,能不能用"。
一个没有答案的问题
历史上,每一次技术革命都以"工具中立"开始,以"国家武器"告终。火药、核能、互联网,概莫能外。
AI只是在以更快的速度,重演同一个剧本。不同的是,这一次,剧本展开的速度快到留给选择的时间已经非常有限。
原创不易,转载引用请注明出处。内容仅供交流学习,不做任何商业用途,不代表任何投资建议,如有侵权请联系后台删除。
夜雨聆风