乐于分享
好东西不私藏

AI正在让战争变成算法下注,而人类,正在变成橡皮图章

AI正在让战争变成算法下注,而人类,正在变成橡皮图章

你好,我是凌云。

最近,《中国新闻周刊》《环球时报》等多家媒体,不约而同地盯上了一个让人脊背发凉的话题——AI战争。

这不是科幻电影。就在今年美以对伊朗的军事行动中,AI首次作为核心操作组件,主导了完整的杀伤链。

原本需要数天才能完成的决策周期,被压缩到了几个小时。

那些基于大数据的“最优解”里,没有犹豫,没有同情,没有道德困境——只有计算结果。

读这些报道时,我心里冒出一个念头,越想越害怕:如果未来战争由AI控制,并且不用承担法律后果,那太危险了。

今天,我们就一层一层剥开这个让你我心惊肉跳的问题。

01 当“辅助”变成一个谎言

官方说辞永远是:AI只是“辅助”人类决策,最终按下按钮的,还是人。

但真相是什么?

今年2月,美国国防部要求AI公司Anthropic将其大模型Claude用于“全自动武器和国内大规模监控”。Anthropic拒绝了——因为他们的伦理底线写着“不作恶”。

五角大楼的反应?直接把这家公司列入了“供应链风险”,进行封杀。

与此同时,OpenAI等公司为了巨额国防合同,迅速接盘。

这就是权力的真相:当主权挥舞着“国家安全”的大棒砸下来时,伦理护栏不过是几根稻草。名义上的“人类最终决策权”,在军事必要性面前,会瞬间蒸发。

到头来,人类指挥官不过是按下AI早已算好的那个按钮,变成了一个盖橡皮图章的“工具人”。

02 冷血的计算:战争不再是战争

AI不懂战争的“体面”。它只会冷酷地执行算式。

美军有一个著名的“Maven项目”——利用AI从无人机视频中自动识别目标,以秒级速度执行“发现即摧毁”。这套系统已在实战中投入使用。

更可怕的是,在2026年美以对伊朗的军事行动中,AI直接给出了分阶段打击清单:从军事目标,一路打到民用基础生命线设施。附带平民伤亡?那不过是一个可以接受的概率偏差。

您能想象那个画面吗?

几千公里外的作战室里,一块屏幕上跳出一行代码。AI基于冰冷的算法和海量数据,向指挥官推送了一个“高效精准、杀伤力最大”的决策。

没有犹豫,没有温度。指挥官只需轻轻一按按钮——

世界的某个角落,前一秒还是橘黄灯光下,一家人其乐融融地吃着晚餐,温馨幸福的家。下一秒,血肉横飞,烽烟滚滚,一片废墟。一切,灰飞烟灭。

那些被归为“概率偏差”的,不是数字。是一个个活过的生命,是等着孩子回家的父母,是还没来得及长大的少年。

我梦见过那个地方。

血腥,荒凉,废墟。人心惶惶,无处安放。拼命逃命,却不知道哪里才是可以落脚的地方。到处都是烽火,废墟,尸体。头顶上飞机轰鸣,侧耳的尖叫。人间地狱。

那不是梦。那是AI按下按钮之后,真实的样子。

而那个真正做出“抉择”的,不是人。是一个素未谋面的AI。它不用担责。

轻飘飘一句“概率偏差”——谁为那些逝去的无辜生命还一个公平?

03 伦理护栏的瓦解:硅谷输给五角大楼

Anthropic的CEO曾公开解释拒绝的理由:“当前AI系统缺乏人类士兵的判断力,可能导致对平民或盟军的意外伤害。”

这是一家科技公司基于伦理底线,对战争机器说的“不”。

但特朗普政府立刻下令联邦机构停止使用其技术,五角大楼将其列为“供应链风险”。

一个国家为了军事上的“算法霸权”,不惜封杀坚持“不作恶”的科技公司。

这暴露了一个残酷的现实:在AI这场革命中,硅谷的理想主义,根本挡不住华盛顿的钢铁洪流。

当一个国家的军事机器决定要做一件事,任何伦理护栏都可以被砸得粉碎。

04 法律的绝望:谁为算法负责?

这就是我最深的恐惧。

联合国秘书长古特雷斯说过:“人类命运不能交由算法决定。”

联合国日内瓦谈判正在讨论致命性自主武器系统的监管问题,进展缓慢,至今仍停留在“有意义的人类控制”这个模糊概念上。

离“算法杀人该判几年”,还有光年的距离。

《环球时报》一针见血:伤亡可以被包装为概率,失误责任可以被推卸给数据和算法。

谁为算法的错误负责?下达任务的指挥官?设计算法的工程师?还是算法本身?国际法至今无法有效追责一个算法。

这就是法律乃至整个人类文明面临的、前所未有的“责任真空”。

当杀人变成一串代码,当死亡被包装成概率偏差,当“不是我干的,是算法干的”成为合法借口——人类的正义,还站得住吗?

05 结语:扣动扳机的,必须是人

1961年,古巴导弹危机最紧张的时刻,苏联潜艇B-59被美军包围,指挥官需要发射核鱼雷。

按照规则,需要三位高级军官一致同意。其中一位——瓦西里·阿尔希波夫——在主官和副官都已同意的巨大压力下,说了“不”。

他凭的不是算法,是直觉。是“只打一发行不行”的犹疑。是对“按下按钮之后会怎样”的恐惧。是作为一个人的判断力。

而今天,我们似乎正在把这份权力,交出去。交给一个没有恐惧、没有犹疑、没有道德困境的算法。它会在几秒钟内算出“最优解”,然后毫不犹豫地执行。

AI基于大数据做出的战争决策,大大提高了效率——用最小的代价,带来最精准、杀伤力最大的战争效果。

但代价是什么?每个普通人,都可能沦落为概率偏差里的一粒尘埃。每一个数据,都变成了射向手无寸铁的平民百姓的子弹。

这个世界,还安全吗?

当人类被灭亡后,只剩下了AI,只剩下了冷冰冰的算法,没有灵魂,没有温度的一片寂静——

还有意义吗?

可就算扣动扳机的,是人——那些依靠AI给出决策的人,怎么证明这个决策是明智的、是正确的?如果这个人像美国一样,已经失去了良知和道德呢?

那也不过是,AI举起刀,让这个决策者落下刀罢了。

还有意义吗?