
近日,北京亦庄人工智能研究院执行院长房超接受《新民晚报》专访,探讨军事人工智能未来的发展与风险。
在过去的战争中,决定胜负的往往是火力、兵力与指挥。但今天,一个更隐蔽却更强大的变量正在改写规则——人工智能。

加沙地带一处帐篷营地遭以军袭击
近期多起冲突显示,AI正深度嵌入情报分析、目标识别乃至作战决策全过程。“杀伤链”的闭合速度被极限压缩,从过去的数小时、数天,缩短到几分钟甚至几十秒。
当决策时间被压缩到“20秒”,战场的主导权,是否仍属于人类?
一、战争正在被算法“加速”
从情报采集到目标锁定,再到打击执行,AI已成为现代战场的重要中枢:
海量数据实时整合 行为轨迹精准预测 打击目标自动排序
在一些战场实践中,AI甚至可以让少量人员完成原本需要数千人的任务。
效率的跃升,意味着战争节奏被彻底改变。
但问题也随之而来——当机器判断越来越快,人类是否还来得及真正思考?

“幻影MK-1”机器人
二、“人类在环”,正在变成形式
在当前的AI作战体系中,人类仍被设定为“最终决策者”。
但现实是:
操作员只有约20秒进行确认 主要核查内容极为有限 AI提供的结论往往被直接采纳
这使得所谓的“人类在环”,逐渐演变为一种程序性的确认动作。
人类不再是决策者,而更像是最后一道“盖章程序”。
三、技术之外,更深层的拷问
AI带来的,不只是效率问题,更是伦理与责任问题:

图片内容选自:新民晚报

图片内容选自:新民晚报
AI误判导致平民伤亡,谁负责? 算法是否具备判断生死的资格? 战争决策是否正在“去人类化”?
这些问题,正在逼近人类社会的道德边界。
四、房超教授:AI无法与国防脱钩
对此,北京亦庄人工智能研究院执行院长房超在接受采访时指出:
“像Anthropic这样的科技公司想要独善其身是不可能的。”
他强调,一旦技术具备战略价值,就不可避免会进入国家安全体系。这一过程,与核技术的发展路径高度相似。

世界文化遗产伊朗“玫瑰宫”在美以空袭中受损 本版图片 IC
换言之,AI军事化,不是选择题,而是趋势。
五、人类正在失去“真正的控制权”?
房超进一步指出:
在人工审核环节被大幅压缩的情况下,“人类在环”正被弱化。
当决策速度由算法主导,人类的判断空间不断被压缩,最终可能出现一种局面:
决策仍由人类“执行”,但方向早已由算法决定。
六、AI是一面镜子
在房超看来,问题的核心并不在AI本身,而在人类:
“AI系统的判断阈值由人类设定,它更像是一面镜子。”
这面镜子映照出的,不只是技术能力,而是:
人类如何看待生命 如何定义“可被消灭的目标” 如何承担战争的责任
技术不会作恶,但人类可能借技术逃避责任。
七、未来:新的战略平衡正在形成
房超从更宏观的角度提出:
未来可能出现两种格局:
- “AI + 核武”的新战略平衡
- 完全由AI驱动的战争平衡体系
这意味着:AI可能成为与核武同等级别的战略力量,全球安全结构正在进入重构阶段。
当“杀伤链”由算法加速、当决策被压缩到20秒、当人类逐渐退居为“确认者”,真正的问题已经不再是:
AI能做什么
而是:人类是否仍愿意承担决定生死的责任
如果答案是否定的,那么未来的战争,或许将不再由人类主导。
结语
人工智能技术正在加速融入军事体系,其带来的不仅是效率提升,更是对战争形态、伦理规范及国际秩序的深刻影响。
在技术持续演进的背景下,如何在发展与安全之间实现平衡,如何在效率与伦理之间建立边界,如何确保人类在关键决策中的主体地位,已成为各国及国际社会需要共同面对的重要课题。
北京亦庄人工智能研究院将持续关注人工智能在安全领域的发展趋势,深化相关研究,为推动技术理性应用与完善治理体系提供支撑。
一END 一

夜雨聆风