乐于分享
好东西不私藏

算法用于战争?AI铁幕降临!

算法用于战争?AI铁幕降临!

5月1日,美国国防部在一份措辞简洁的声明中投下了一枚震撼全球安全格局的“算法炸弹”——五角大楼正式宣布,已与七家美国顶尖人工智能及航天科技公司签署里程碑式协议。这七家公司分别是:太空探索技术公司(SpaceX)、开放人工智能研究中心(OpenAI)、谷歌、英伟达、Reflection AI、微软以及亚马逊云服务(AWS)。声明明确宣告,这些协议将“加速美军转型进程,旨在将美军打造为一支‘人工智能主导’的作战力量,并将增强美军在所有战争领域保持决策优势的能力”。从这一天起,美军不再仅仅追求“信息化”或“网络中心战”,而是公开将“AI主导”确立为下一阶段军事转型的核心纲领。这并非简单的技术采购合同,而是一场从指挥神经元到战场末端执行器、从太空感知到云边协同的全链路智能化革命。当硅谷的算法与五角大楼的战争机器深度融合,人类战争史或许正在翻过“网络中心战”的篇章,进入“算法中心战”的未知纪元。

这一重大举措的深层动因,可以追溯到美国国防战略中持续近十年的“第三次抵消战略”。自2014年以来,面对中俄在反介入/区域拒止(A2/AD)能力上的飞速进步,五角大楼意识到传统的精确制导与平台优势正在被削弱。人工智能被视作能够重新拉开代差的“非对称杠杆”。从早期的“算法战跨职能小组”到“联合人工智能中心”,再到2022年成立的“首席数字与人工智能办公室”,美军一直在试图将AI从实验室推向战场。然而,此前零散的项目和与科技巨头若即若离的关系,始终无法形成规模化、体系化的作战能力。2026年5月1日的这份协议,本质上是一次“总动员”:它将过去需要数年单独谈判的数据、算力、算法和云基础设施打包为统一的“国家AI作战框架”。根据协议细节流出的信息,国防部不仅获得各大公司最前沿的大模型、芯片和云服务权限,更重要的是建立了“战时优先级调用机制”——这意味着在冲突升级时,SpaceX的星盾卫星网络、OpenAI的推理模型、英伟达的GPU集群可以瞬间从商业用途转向战术支持。这种军民两用技术的无缝转化,正是美军追求“决策优势”的核心底牌。

七家签约公司各司其职,构成了一条完整的AI杀伤链。SpaceX提供的是低轨卫星星座的“天基传算网络”——星链系统经过数年迭代已经能够实现全球无死角的亚秒级数据中继,而其“星盾”军用分支更具备在轨边缘计算能力,可将AI模型直接部署到卫星上处理传感器数据。OpenAI则贡献了其最新一代多模态大模型,该模型不仅能够理解文本、图像、雷达频谱,甚至能解析敌方指挥通信的电磁特征模式,辅助参谋军官在数秒内生成数千份作战方案草稿。谷歌的DeepMind部门拿出了针对兵棋推演优化的强化学习智能体,可以在虚拟战场中昼夜不息地演练对抗战术,并将收敛后的策略压缩为轻量级“战术芯片”部署到连级单位。英伟达无疑是这场变革的算力基石——其下一代“黑井”架构GPU以及专为边缘战场设计的“Jetson Thor”模块,将使战术前沿的无人机、无人战车和单兵系统具备本地运行百亿参数大模型的能力。Reflection AI这家相对低调的公司专攻“反射式人工智能”——即基于贝叶斯推理的实时对抗决策算法,擅长在信息不完备条件下快速生成可解释的行动建议,这正是战场迷雾中最稀缺的能力。微软和AWS则负责云端的“战场血管”:Azure的“战术云”节点可以随军机动,而AWS的“秘密区域”将提供多级隔离的计算环境,确保从五角大楼到前线特种兵都能安全调用统一的AI服务。七方合力,美军第一次拥有了覆盖感知、理解、决策、行动、评估全闭环的AI作战体系。

然而,这场转型的真正颠覆性,并不在于单个技术的突破,而在于“决策优势”概念被重新定义。传统军事决策遵循“观察—调整—决策—行动”(OODA)循环,人的认知始终是速率瓶颈。即便在90年代的数字化战场上,从传感器发现目标到火力单元开火,仍需要经过情报分析员、战术指挥官、火力协调中心等多个人类节点,延迟通常在分钟到小时级。而美军此次协议的核心目标,是将军团级的决策延迟压缩到毫秒级别。这并非科幻想象:协议中包含一项名为“算法指挥使”(Algorithmic Command Enabler, ACE)的实验项目。在ACE架构下,一个拥有数十架无人机、无人地面车和传感器节点的战术群,将由一个运行在边缘服务器上的“战术智能体”自主协调。该智能体每年在模拟环境中经历数百万次战术对抗,其决策速度比人类快三个数量级,且能够同时处理来自红外、雷达、声学、电子情报等数十个数据流。人类指挥官的角色则被提升为“意图设定者”——只需下达“控制四号交叉路口”或“压制二号区域防空雷达”这样的任务式指令,剩下的具体机动、火力分配和威胁规避全部由AI自主完成。五角大楼在2025年底的“融合计划-6”演习中已经验证,装备了这种智能体的无人连队,在面对传统有人连队时取得了9:1的交换比。如今,通过2026年5月的这份协议,这一能力将从演习场走向实战部署。

当然,如此激进的军事转型必然触碰国际法和人道主义的红线。最具争议的当属“自主武器系统”(LAWS)的边界问题。尽管国防部在声明中重申“人类始终处于致命决策的回路之中”,但协议文本中关于“决策优势”的技术条款却暴露了动摇这一原则的可能性。例如,OpenAI提供的大模型具备动态规划能力——当敌方突然释放电磁干扰切断与后方指挥部的通信链路时,前线的自主系统可以启动“失联模式”,在这个模式下,AI被授权在特定地理围栏内自行识别并攻击已经锁定确认的敌方防空雷达或导弹发射架。这实际上就是一种“人在回路外”的自主攻击。更令人担忧的是Reflection AI的“反射决策算法”,其设计初衷就是在人类无法做出及时反应的紧急对抗场景下(如高超音速导弹拦截窗口仅数秒),由AI瞬时决定拦截弹的分配方案。支持者认为这能挽救更多生命,反对者则质问:当AI在几毫秒内决定开火,即便误伤友军或平民,究竟谁来负责?是程序员、指挥官,还是那个不可解释的神经网络权重矩阵?美军迄今为止的立场是“保持适当的自主级别”,但批评者指出,所谓“适当”完全由五角大楼自行定义,没有任何国际条约能够约束。

从地缘政治角度看,这份协议无异于在人工智能军备竞赛的悬崖边又往前推了一大步。中国和俄罗斯早已将AI军事化列入国家战略——中国在2025年发布的《新一代人工智能军事应用规划》中明确提出了“智能赋能、体系对抗”的目标,俄罗斯则试验了“波塞冬”自主核动力无人潜航器与“锆石”高超音速导弹的AI协同突防战术。然而,美军此次与七家商业巨头的系统性结盟,却展现出一种特殊的优势:民用科技生态对军事领域的“反向渗透”。SpaceX的星链在乌克兰冲突中的表现已经证明了商业航天对现代战争的塑造力;OpenAI、谷歌和微软的大模型能力远非任何纯军事研究机构所能比拟;英伟达的GPU事实上垄断了全球AI训练市场。当这些力量被正式纳入国防部的合同框架,意味着美国第一次拥有了一个“全栈式”的AI国防工业复合体——从最底层的芯片设计(英伟达)到基础模型研发(OpenAI、谷歌),再到云基础设施(微软、AWS)和前沿算法(Reflection),最后通过太空传输网(SpaceX)延伸到每一个终端。这种纵深组合,使得其他国家如果想在AI军事能力上对标美国,不仅需要突破单项技术,更必须复制一整个硅谷生态。这在可预见的未来几乎是不可能完成的任务。

然而,技术优势背后潜藏着深刻的风险。七家科技公司的参与,令一个古老的担忧重新浮现:当商业利益与国家战争机器深度捆绑,谁来监督算法的“黑箱”?五角大楼的声明强调“加速转型”,却对模型可解释性、算法偏见和误报责任只字未提。以计算机视觉为例,过去几年商用AI在识别军事目标时曾出现大量匪夷所思的错误——将树影误判为步兵班,把民用拖拉机当作自行火炮。如果这些模型被写入真实的杀伤链,一次错误的算法标签就可能酿成令国际舆论哗然的悲剧。更微妙的是,OpenAI等公司一直对外宣称其“反对致命自主武器”,而如今却直接参与军方协议。这种立场的反转,折射出商业AI伦理在国防合同面前的脆弱性。协议中虽然包含“负责任的人工智能”条款,但其定义权完全掌握在美国国防部自己手中——按照其2024年更新的《负责任的人工智能战略与实施路径》,只要AI系统的决策过程能够留下事后可追溯的日志,就被视为“负责任”。至于日志能否解释模型为何那样做,或者决策是否合乎战争法中的“比例原则”,并未设定硬性门槛。

这场AI军事转型最深刻的悖论或许在于:人类试图通过算法获得决策优势,却可能因此丧失对战争本身的道德和战略控制。历史上,从弓箭到火药再到核武器,每一种新技术的引入都曾承诺“更精准地消灭敌人、更高效地结束战争”,但结果往往是冲突烈度和平民伤亡的升级。AI的不同之处在于,它不仅是工具,更是一个具备一定自主性的“智能代理”。当美军的战术AI在未来某次冲突中,为了最小化己方伤亡而选择了一条导致敌方平民附带损伤概率增加2%但成功概率提升30%的路径,这一决策应当被视为合理权衡还是战争罪行?传统军事伦理体系从未设想过由算法来回答这样的问题。更令人不安的是,协议中强调的“在所有战争领域保持决策优势”,本质上是追求绝对的单方行动自由——即对手的决策周期被AI压缩到无法做出有效反应的程度,从而在战术上形成降维打击。但这种优势一旦被同等技术水平的对手获得(比如另一个国家的类似AI系统),冲突就会进入两个算法以微秒为单位相互博弈的“闪电战”。到那时,任何外交谈判或态势降级机制都将因为没有人类可以介入的时间窗口而形同虚设。

展望未来,5月1日的这份协议很可能被后世史家视为“算法战争元年”的标志性事件。它不仅仅是美军的内部转型,更是一份面向全球的“技术宣言”:超级大国不再满足于空中、太空和网络领域的优势,而是要在智能的维度上确立不可挑战的统治力。接下来,我们可以预见一系列连锁反应:中国将加速整合其“军民融合”战略下的AI资源,可能推出类似“国家队”大模型;俄罗斯会进一步强调核威慑力量与AI的结合,以弥补常规力量的代差;欧盟则将在“数字主权”与“伦理军备竞赛”之间挣扎,一方面不愿放弃军事AI的赛道,另一方面又必须面对公众对自主武器的强烈抵制。而在这一切之上,围绕《特定常规武器公约》框架下的致命自主武器系统禁令谈判,将因这份协议的签署而变得更加艰难——美国有了一个强大的商业联盟作为后盾,就更有底气抵制任何具有约束力的国际条约。

回到文章开头的那份声明,五角大楼使用了两个极具分量的词:“人工智能主导”与“决策优势”。前者定义了美军未来的形态——每个士兵、每辆战车、每架无人机都将是算法的延伸;后者则揭示了这场变革的终极目标——在对OODA循环的每一个环节的争夺中,永远比敌人快一步,哪怕只快一毫秒。然而,战争的本质从未改变:它始终是意志、伦理和不可控后果的角斗场。当算法试图将这一切简化为优化问题,人类或许赢得了战术上的速度,却很可能输掉了战略上的慎思。