乐于分享
好东西不私藏

【会员下载】当AI陷入“核困境”:语料库中的冷战思维如何影响未来战争?

【会员下载】当AI陷入“核困境”:语料库中的冷战思维如何影响未来战争?

关注 ▲蓝军开源情报▲ 10万+情报研究员,一起成长
【导读】

2026年4月21日,岩石战争网站发布报告《当AI陷入“核困境”:语料库中的冷战思维如何影响未来战争?》,最近,一些将大型语言模型置于模拟核危机中的实验引发了令人震惊的新闻报道。

“嗜血”的人工智能系统会加剧冲突、威胁发动核打击,并在模拟压力下表现出异常行为。伦敦国王学院的肯尼斯·佩恩在一篇预印本论文中展示了一系列实验结果。

这些实验涉及三个前沿模型之间的21场模拟对决,结果显示,在95%的对决中,至少有一方发出了核信号——随后,95%的对决中出现了战术性核武器的使用,76%的对决中出现了战略性核威胁。

该研究的作者将结果描述为“令人警醒”,并将其视为了解新兴“机器心理学”的一扇窗口。当人工智能遇上核武器时,新闻往往会铺天盖地而来——谁不喜欢在享用早晨咖啡的同时,感受一下“天网”带来的恐惧呢?

本报告当AI陷入“核困境”:语料库中的冷战思维如何影响未来战争?》原文16页。扫码文末二维码,加入蓝军开源情报知识星球,免费下载本文原文及完整5000字译文。联系电话:19118805880(微信同号)

关键核困境冷战思维;未来战争

这是蓝军开源情报的第 573 期分享

编译 l 所长007

来源 l 蓝军开源情报(ID:Lanjunqingbao)
转载请联系授权(微信号19118805880

佩恩的研究颇具深度,其结论也比大多数报道结果的标题所暗示的更为谨慎。其方法论设计——一个要求模型分别进行反思、预测和行动的三阶段架构——极具创新性,这种多阶段结构克服了单次方法可能存在的缺陷。

然而,这项研究仍然在更广泛的评论中引发了两种截然相反的解读。第一种解读认为,兵棋推演证明,如果将人工智能嵌入军事决策系统,必然会引入危险的新升级路径。第二种解读则认为,人工智能可以从根本上革新兵棋推演,实现大规模、低成本的战略选项自动化探索。

这两种解读都基于对战争游戏实际用途以及大型语言模型在帮助我们理解核危机和核战争本质方面所能发挥的作用的共同误解。简而言之,大型语言模型进行战争游戏提供的数据是关于大型语言模型本身的,而不是关于支撑冲突的人类行为的数据——而战争游戏在人类行为方面发挥着重要作用;正如佩恩所指出的,大型语言模型战争游戏可以让我们了解机器心理学,但无法让我们了解人类决策的病态之处。

与此同时,鉴于大型语言模型在战争游戏领域具有许多合理且富有成效的应用,21世纪的核战略家们应该关注如何将他们的贡献融入模型语料库。换句话说,当今的核战略家们或许有责任在写作时着眼于塑造现代人工智能系统对核战争的理解。

一、战争游戏究竟能做什么

首先,必须指出兵棋推演方法在军事和政府领域所扮演的角色。从根本上讲,兵棋推演可分为两类:一类用于教学目的(教育和训练),另一类用于分析目的。

在后一类中,包括用于研究新颖问题的探索性兵棋推演,以及越来越多旨在多次运行并为政策制定者和军事规划者提供推论的兵棋推演。所有这些目的的核心在于,能够将人类玩家置于现实世界数据有限的复杂环境中。

从本质上讲,兵棋推演是构建结构化环境,用于激发和检验人类的判断力——特别是,在不确定性、复杂性、信息不完整和竞争压力等难以通过其他方式模拟的条件下进行的判断。在核战略领域,鉴于0- n问题,兵棋推演长期以来为探索难以想象的局面提供了一种丰富的方法论工具。

因此,兵棋推演产生的数据本质上是人类数据。玩家们带着各种各样的机构知识、不成文的职业信念、受职业生涯和文化影响的风险承受能力,以及在访谈中可能永远不会明确出现的解读框架来到棋盘前。由于玩家们身处一个决策会产生后果的情境中,兵棋推演无疑比调查问卷等方法更能真实地反映现实。

重要的是,兵棋推演的价值不仅在于玩家做了什么决定,更在于他们如何以及为什么做出决定——在于压力下决策的推理过程、社会动态和认知启发式方法。这就是为什么赛后总结在分析上至关重要:它让玩家们有机会反思和反思他们在游戏中的决策逻辑。

我们通常将上述的“如何”和“为什么”描述为从博弈中得出的过程导向型推论。例如,玩家在特定回合中可能会忽略哪些情报来源?或者,将玩家置于团队环境中会如何缓解或加剧他们的攻击倾向?这类推论在政策和学术领域都非常有用,有助于我们理解和应对危机。

虽然我们都看到了人工智能工具在获取人类数据方面可能发挥重要作用的领域,但有很多理由让我们对这些技术能否取代上述方法持怀疑态度。

二、“人工智能战争游戏”中的类别错误

在此背景下,将完全基于大型语言模型的博弈视为一种兵棋推演形式,犯了范畴错误。这种错误在于将兵棋推演视为一个优化问题——在既定的行动空间中寻找最佳应对策略——而非兵棋推演的真正含义:一种在战略条件下研究人类认知的方法。

基于大型语言模型的兵棋推演可以帮助研究人员理解大型语言模型的内生行为,实际上,正是佩恩所描述的新兴领域——“机器心理学”,但它对于理解人类控制的核冲突的轮廓却鲜有助益——而截至2026年,核冲突似乎仍然是对现实世界中可能发生的核战争轮廓的最佳描述。

近期研究在方法论上取得了令人瞩目的进展,揭示了前沿大型语言模型在核危机对抗中的表现。仔细阅读佩恩的预印本,可以发现他对前沿实验室技术人员如何利用该研究成果优化模型训练方法进行了深入的评估,这些技术人员希望从这些模型中获得更理想的战略决策输出。

有趣的是,该论文提出了一个看似合理的假设:基于人类反馈的强化学习会产生一些反常的、乐于升级的模式。然而,这一发现更多地反映了大型语言模型在游戏中的行为,而非人类在核战略和核危机中可能采取的策略。

具有讽刺意味的是,鉴于当今模型缺乏可解释性,我们很难理解特定人工智能模型为何会以军事分析者感兴趣的特定方式运行。最终,我们只能得到一个晦涩难懂的现有算法模型,而这些模型原本可以用来分析冲突。

三、为什么人工智能模型会在模拟中升级?

即使我们接受近期新闻标题中最强有力的论点——即这些模拟中大型语言模型的行为确实能反映人类的某些特质——模型容易升级的现象也并不令人惊讶。事实上,考虑到我们对模型行为可读性推理的已知局限性,这一结果完全在意料之中,而其原因在方法论上至关重要。

大型语言模型并非仅仅基于人类战略思想语料库进行训练,更确切地说,是基于那些可作为训练数据的人类战略思想语料库进行训练。该语料库严重偏向于强制策略、威慑理论以及核信号的工具性逻辑。核战略的经典著作——如谢林、卡恩、布罗迪、杰维斯等人的著作——探讨了威胁、承诺和决心的逻辑。

关于核决策的调查和兵棋推演文献也同样偏向于核武器使用正在积极讨论的情境。其结果是,训练数据中充斥着升级推理,而降级推理则相对稀少。这一观察结果在之前使用大型语言模型进行兵棋推演的尝试中已经出现,并非新发现。

对于我们这些仍在生产核战略训练数据的人类来说,这应该引发一些思考。关于如何缓和激烈的常规战争,避免使用核武器,或者在有限使用核武器后终止战争的研究仍然相对匮乏。同样,失败或升级的可能性——正是这种可能性促使许多模型选择核升级——是基于一个以胜利而非失败为优先的语料库。

如今的核战略家们——无论是为人类还是为大型语言模型写作——或许应该更多地探讨如何在不以全面核冲突为代价的情况下,更好地容忍失败。事实上,除了大型语言模型之外,现实世界的领导人和决策者如果将冲突升级到超出其实际风险承受能力的程度,也可能需要寻求类似的智慧。

还有一个相关因素可能助长了大型语言模型所表现出的升级行为。面向公众的核态势——即各国向对手发布的理论声明、官方沟通和战略信号——系统性地夸大了使用核武器的意愿。

这并不令人意外,因为信誉和决心是威慑逻辑的核心,它要求对手相信一方的威胁及其执行威胁的意愿。但这也就意味着,基于开源战略沟通数据训练的模型吸收了一种经过精心筛选的核决心图景,而这种图景可能无法代表决策者实际如何权衡使用核武器的成本和限制。事实上,官员和专家之间就核战略问题进行的私下闭门磋商以及政策声明,往往会以某种方式探究信誉的极限,而这些内容很可能不会被纳入塑造模型行为的核战略训练语料库中。

我们承认,关于模型如何权衡这些不同因素的推理充满了不确定性,但作为核战略的实践者,上述内容为我们提供了一个合理的解释,说明为什么在这些情况下会出现升级行为。

四、人工智能工具在战争游戏中的变革潜力

前述的批评并非否定人工智能技术在兵棋推演应用中的作用,也并非完全否定探索佩恩所谓的“机器心理学”。下文将重点讨论前者。人工智能工具,尤其是大型语言模型,在兵棋推演的设计和执行过程中具有潜在的变革性应用价值。

要实现这一潜力,就需要明确这些工具在游戏生命周期的哪些环节能够创造价值,哪些环节则不然。大型语言模型并非人类玩家的替代品,它们最有价值的用途或许在于构建和促进以人为中心的游戏。

最直接且高价值的应用在于世界构建或场景生成。设计一款兵棋推演游戏是一项劳动密集型工作:场景构建、裁决逻辑、升级阶梯、情报评估以及参与者材料都需要投入大量的时间和资源——尤其是在回合间隙,白方团队需要争分夺秒地消化各队的指令,以便构建下一回合的场景。大型语言模型可以显著加速这一过程。

它们非常适合生成丰富且内部一致的场景注入和情境更新——即游戏控制用来向玩家施压并推动游戏进程的“行动”——而经验丰富的设计师通常需要手动且耗费大量成本才能完成这些工作。同样,预测玩家在游戏过程中可能提交的各种信息请求,并预先填充合理的回复,正是前沿模型擅长的综合任务。

资源受限的游戏控制团队可以利用大型语言模型在游戏运行前对场景架构进行压力测试,探测逻辑上的不一致或不合理的场景,这些都可能导致玩家对特定场景产生抵触情绪。所有这些都有助于玩家在一个更丰富、内部逻辑更连贯的游戏世界中更好地“体验”场景。

第二个应用是在游戏执行过程中进行人机协作。大型语言模型并非取代人类玩家,而是作为分析对话者:例如,它们可以作为红队助手,帮助人类玩家思考对手可能的应对策略;或者作为裁决辅助工具,帮助游戏控制部门快速评估玩家异常举动与场景内部逻辑的合理性。这样既能保持人类决策者作为分析单元,又能丰富游戏的背景。

赛后分析是第三个前沿领域。兵棋推演的总结会产生丰富的定性数据——在某些情况下,笔记多达数百页——而这些数据历来难以系统化。大型语言模型显然非常适合分析玩家的文字记录或主观笔记,识别不同玩家队伍中反复出现的模式,揭示玩家陈述的理由与实际决策相悖的时刻,并将发现标记出来供人工分析师解读。

这些应用都不需要大型语言模型来模拟人类的策略判断。它们只需要大型语言模型发挥其已有的优势:综合、生成和组织。

五、前进之路

鉴于军方内外对人工智能技术的浓厚兴趣,人工智能与人工智能之间的博弈持续探索在某种程度上是不可避免的。“人工智能”如今成了寻找钉子的锤子。

但如果人工智能技术要有效地融入兵棋推演应用,分析人士和政策制定者都必须认真思考如何在兵棋推演体系内找到合适的人工智能应用场景。如果他们坚持使用大型语言模型作为“玩家”,则必须牢记模型行为反映了其输入,因此不应过度解读在高度程式化的环境中生成的输入。

事实上,当前对人工智能和核决策的关注浪潮应该促使我们反思的不仅是工具本身,还有人工智能工具所依赖的底层知识库。扩展我们的知识库,以便更好地捕捉克制、降级、退出机制和战争终止等路径,或许有助于提升人工智能模型的外部有效性,并推动21世纪核战略领域的发展。

更广泛地说,兵棋推演领域也应采取更加严谨的方法来验证和解读人工智能兵棋推演的结果——与此同时,该领域自身也在努力探索如何开展分析性兵棋推演。

人工智能无疑将塑造军事分析的未来。但在兵棋推演领域,它最有价值的作用可能仍然是辅助性的。因此,挑战不在于制造能够替我们进行游戏的机器,而在于利用它们更好地理解已经参与其中的各方。

获取资料目录:19118805880(微信同号)

👇👇

加入蓝军开源情报星球会员免费下载3000+资料

👇👇

原价999元!
星球试运营期间199元!
试运营结束,恢复原价!

扫码了解、加入

👇👇