AI与战争的致命纠缠:当算法成为战场的主宰者
加沙地带的夜空被爆炸的火光照亮,这不是传统意义上的战争。在每一次精准打击背后,是以色列国防军两套AI系统——“薰衣草”和“福音”——在冷酷运转。一个负责筛选“人”,一个负责锁定“物”。这是人类战争史上的一次深刻断裂:算法第一次站到了杀戮决策的中心位置。
20秒的人性考验
以色列情报官员的证词揭示了一个令人不安的现实。过去两年半里,“薰衣草”系统构建了一个动态人员数据库,以据称90%的准确率遴选出与哈马斯有关联的巴勒斯坦人。“福音”系统则识别打击目标与建筑。这两个名字取自圣经的系统,构成了加沙战争的神经中枢。
但真正的问题不在于机器能做什么,而在于人被置于何种位置。
“人机协同”(human in the loop)——这个听起来充满智慧的设计理念,在实践中彻底变了味。一位接受英国《卫报》采访的军官坦言:“我为每一个目标投入20秒,决定要不要打,每天打击几十上百个。”
20秒。在这短到几乎可以忽略不计的时间里,他需要审阅多张卫星图和其他遥感数据,需要判断目标身份和位置。在同情心或其他人类情感来得及泛起之前,按钮已经按下。日复一日,持续两年。这些军官不再是传统意义上的决策者,他们沦为橡皮图章,为机器的批量杀戮提供人类背书。
效率的数字更加触目惊心。“福音”系统每天能生成100个打击目标,而此前一个20人情报小组一整年才能产出50到100个目标。效率提升不止百倍。但这里有一个被刻意忽略的事实:90%的准确率意味着,系统运转得越快,无辜者的绝对数量就越多。
五角大楼的“审美”转向
当世界为加沙的惨剧震惊时,五角大楼的官员们看到的却是另一番景象——一种极致高效的“美”。
这构成了一个关键的道德分水岭。面对以色列的AI辅助战争,美国的军事决策者必须做出选择:是继续以人类的审慎和道德约束面对战争,还是彻底拥抱AI系统,哪怕这意味着成为算法的共谋?
对于一个极度渴望“赢”的白宫而言,答案似乎已经不言自明。近期美国国防部长海格塞斯领衔的战争部明确要求供应商“彻底解除AI限制”,允许军方将大模型用于“任何合法的用途”。翻译一下:允许无差别的大规模监控,允许完全自主的致命武器系统。
这正是AI与战争相互裹挟的第二个维度——战争不仅在被AI改变,也在反过来重塑AI的发展方向。
决裂与招安:硅谷的理想主义消亡
这场重塑在硅谷内部撕开了一道深刻的裂痕。主角是两位曾经的同路人:OpenAI的山姆·奥特曼,与Anthropic的达里奥·阿莫代。
阿莫代坚持AI必须更安全、更具道德约束,为此不惜与商业至上的奥特曼分道扬镳。当五角大楼提出解除所有限制的要求时,Anthropic选择了拒绝——尽管代价是失去2亿美元的国防合同,并被五角大楼认定为“对国家安全构成供应链风险”。这个此前主要针对华为、中兴等中国实体的黑名单,如今迎来了第一家美国本土AI明星公司。
阿莫代禁止中国使用其模型时,理由是担心中国会用AI压迫人民。但现在看来,他真正应该防范的是自己的祖国。
另一边,OpenAI火速与军方签约。尽管奥特曼辩称协议中设有“护栏”,但无论硅谷还是普通民众都已认定:OpenAI跪了。市场给出了最直接的回应——据《福布斯》报道,OpenAI在3月初失去1500万用户,而Claude反超成为下载量第一的大模型应用。
但这终究只是普通人的自嗨。从美国政府强制私营公司突破科技伦理,到将不听话的Anthropic打入黑名单,一个清晰的信号已经释放:AI不再是什么平权工具,它正成为美国维系霸权的新武器。
三个不可逆的趋势
这种武器的性质,决定了三个深层趋势。
第一,互联网巨头正在被系统性“招安”。互联网时代的硅谷崇尚自由极客文化,代码和数据的轻量级流动让企业能够保持相对独立。但大模型时代有着沉重的物理枷锁——海量土地建数据中心、天文数字的电力、先进制程的实体芯片。钱不再是万能的,这些公司必须直面国家主权,需要战略级支撑。OpenAI开了头,它最好的结局是成为新时代的洛克希德·马丁或波音——与政府互相裹挟,相爱相杀。
第二,AI发展正走上曼哈顿计划的老路。80多年前,美国因恐惧德国率先造出原子弹而启动曼哈顿计划。今天,同样的恐惧驱动着对“赛博核弹”的掌控。奥本海默的故事家喻户晓——他主持研制原子弹,却因反对氢弹而遭受政治审查。拒绝五角大楼的阿莫代,是否已经踏入了同样的历史漩涡?
第三,美国AI生态体系正在构建新的等级秩序。连血统纯正的Anthropic都能因“忠诚不彻底”被绞杀,其他国家面临的处境可想而知。五角大楼拥有了某些AI模型的最高权限,意味着任何部署该AI的国家和公司在美国面前都是单向透明的。盟友国家别无选择,只能使用跪给了五角大楼的模型。制裁工具箱也迎来升级——除了金融制裁和实体禁运,美国现在可以一键断接口、锁定芯片。生态内的国家将被实行“代差供给”:最先进的算力和模型留在本土,其他国家只能拿到落后技术去送外卖、做客服,绝不允许训练出能挑战美国的主权模型。
深渊的边缘
AI在战场上越是证明自己的“效用”,就越可能从技术工具异化为权力统治的工具。这种异化一旦完成,AI将从惠及普通人的平权力量,蜕变为巩固少数人霸权的武器。
打破这种危险的双向奔赴,让AI真正服务于人类福祉而非毁灭——这是这个时代AI科学家和开发者最重要的使命。加沙的废墟和五角大楼的选择已经发出足够清晰的警告:当算法成为战场的主宰,人类离深渊只差一个按钮的距离。
这不是科幻小说的情节,这是正在发生的历史。而我们每个人,都是这段历史的见证者,也终将成为它的承受者。
夜雨聆风