AI误炸不是意外:你的手机数据,正在成为战争靶子
当代码决定生死,人类只剩点头的权力
美以联军宣布代号为“史诗怒火”的行动时,硅谷分析师在推演概率曲线,数据科学家在调试神经网络。
但这场行动,从一开始就不是传统战争。
人类还在沿用“发现-决策-打击”的三阶段作战模式,AI已经把这三个环节压缩成了一条直线。
从卫星拍到导弹发射,到最终打击指令下达,中间没有“人”的环节,只有代码的静默执行。
以色列上校Yishai Kohn说过一句话:“很多潜在任务根本没发生,因为没有足够人力去评估关键情报”。
这句话背后,是战争的底层逻辑被彻底改写:
不需要人类评估,因为评估本身,已经被AI替代。
🧨 认知破壁点
AI从来不是辅助工具,而是战场上的“新器官”。
器官会病变,代码会腐烂。
撕开表象:AI真的在“思考”,还是在“复读”?
01 情报处理:人类看4%,AI看96%,但AI看不懂真相
传统情报分析体系里,据行业相关分析显示,人类分析师每天只能处理约4%的情报素材。
剩下的96%,只会在硬盘里无声腐烂。
AI能处理这96%的海量数据。
但处理,从来不等于理解。
以色列监控着被黑入的德黑兰摄像头,监听着高官的通信记录。AI从海量视频里识别特定型号的飞机、车辆,从语音里抓取对话关键词生成总结。
Conntour公司CEO说:“现在的AI能让它们在数据海里检测到精准所需”。
可精准检测的,到底是什么?
是符合训练数据的目标,而不是真实的目标。
训练数据从哪里来?
历史战争录像、公开情报报告、商业卫星图片。
德黑兰新装的摄像头,AI没见过“新形态”的画面特征;
伊朗换了新型号的无人机,AI的训练数据库里没有对应样本。
最终,AI只会给出“匹配度最高”的结果,而不是“真相”。
🧨 认知破壁点
AI的“精准”,本质是数据偏见,绝非技术优势。
02 任务规划:从数周到数天,代价是责任的彻底稀释
传统军事行动规划,需要情报官员、一线指挥官、后勤人员多方协作,耗时动辄数周。
AI介入后,这个过程被压缩到了短短数天。
战场上任何一个细节的改变——哪怕目标位置只偏移0.5公里——都会引发连锁反应:机组排班要变、燃油消耗要重算、飞行计划要全量调整。
过去,更新这些因素的过程,缓慢且充满人的主观判断。
现在,AI能在瞬间计算出每一个变化对整体部署的全部影响。
五角大楼早已用AI运行作战模型和数字兵棋推演,处理数以百万计的迭代方案,快速锁定最有可能实现目标的行动路径。
路径是锁定了,但谁为路径的错误负责?
决策链条被无限压缩,责任被稀释到了代码作者、数据标注员、系统维护者身上,没有一个具体的人,能为最终的结果担责。
当AI决定打击德黑兰的某片区域,而那里其实是一所小学时,人类能做的,只剩下输入AI给出的“目标坐标”。
🧨 认知破壁点
效率提升的背面,是战争责任的彻底模糊化。
03 实战表现:60%准确率的AI,不如84%准确率的人类
2017年启动的美军Maven系统,核心能力就是整合海量战场数据,快速识别潜在军事目标。
在这次伊朗冲突中,Maven最核心的作用,就是“目标生成与筛选”。
它把卫星图像、无人机视频、雷达数据全部融合到统一界面,让操作人员能在极短时间内,生成大规模打击目标清单。
可据相关战场分析反馈,它的识别准确率,约为60%。
而人类分析员在同等场景下的准确率,约为84%。
在复杂的战场环境里,AI出现了大量的误判与遗漏。
有相关报道披露,美军在战争首日,或因情报失误,导致伊朗一所女子小学数十名儿童丧生。
这从来不是“意外失误”,而是系统设计的先天缺陷。
为什么AI一定会误判?
- 训练数据过时:2017年部署的模型,难以精准识别近年来更新的战场装备与场景
- 基础数据失真:标注错误、噪声数据持续干扰判断
- 黑箱决策不可控:系统自己修改了判断规则,人类完全不知情
🧨 认知破壁点
AI从来不是在“学习”,只是在放大“记忆偏差”。
硬核真相:三个被刻意抹去的致命漏洞
01 漏洞一:民用数据,正在沦为军事靶子
伊朗本轮反击,攻击的不仅是军事基地,还有亚马逊在阿联酋的数据中心、谷歌在中东的服务器。
为什么?
因为AI作战系统,完全依赖这些民用数据生存。
商业卫星图像,被用来标注军事目标;
民用通信数据,被用来监听敌方通话;
金融交易记录,被用来追踪资金流向;
社交媒体轨迹,被用来绘制敌方活动热力图。
你手机里的定位信息、购物记录、点赞行为,正在被用来训练杀戮机器。
这不是危言耸听:
- Anthropic因担心美国政府用其AI工具对民众进行大规模监控,与白宫爆发冲突;
- OpenAI早已和国防部达成协议,将AI模型部署于军方机密网络;
- 谷歌直接删除了“不开发武器”的原则条款,转而用模糊表述敷衍公众。
科技巨头们,早已不再伪装“中立”。
🧨 认知破壁点
数字主权从来不是虚无的概念,是每个人的生死线。
02 漏洞二:数据老化,比导弹的威胁更致命
五角大楼首任AI主管Jack Shanahan曾直言,构建军事AI面临的最大难题,就是大量用于训练的数据,往往存在过时或失真的情况。
过时到什么程度?
- 用多年前的战场数据,训练模型识别近年来的新型无人机;
- 伊朗换了全新的电子战系统,AI从未见过相关样本;
- 就连美军自己的新型导弹,训练数据库里都没有完整数据。
AI本质上,是在“用旧地图找新大陆”。
更可怕的是,AI系统会主动“学习错误”。
如果标注人员把平民误标为军事目标,AI会牢牢记住这个错误,并且在每一次判断中,不断强化这个错误认知。
所谓的“误伤”,从来不是意外,是这套系统的必然结果。
🧨 认知破壁点
数据越新,AI反而越危险——它在快速“遗忘”历史,疯狂“记住”错误。
03 漏洞三:过度依赖AI,人类正在丧失判断力
乔治城大学研究员Emelia Probasco早有警告:将战争决策权交给AI,“是一个极其严重的问题”。
人类的判断力,在战争中从来不可替代。
但现在,人类正在主动失去这种能力。
当AI能在几秒钟内给出数十种作战方案,指挥官早已失去了深度思考的时间。
过去,军官会花数周时间研究目标,反复思考“为什么打这里,不打那里”。
现在,AI直接给出“最优行动路径”,军官只需要点击“确认”。
而这一下点击,就是战争的全部决策。
AI压缩了决策链条,也彻底消解了人类的决策参与度。
🧨 认知破壁点
战场上最危险的武器,从来不是导弹,是“不再思考”的人。
清醒建议:普通人如何不被AI战争收割
别信“AI只是辅助工具”的鬼话
硅谷一直宣传AI是“辅助工具”,但它早已成为战争的核心决策参与者。
辅助工具不会杀人,但决策参与者会。
别再无差别使用境外民用云服务
亚马逊、谷歌、微软的民用云服务,早已被军方常态化调用。
你的数据存在这些民用云里,战时就会成为军用数据的一部分。
别忽视“民用数据军用化”的风险
商业卫星图像、通信数据、社交媒体轨迹,在战时都极易被军方调用。
对我们每个人而言,加速建设自主可控的云基础设施,推动数据本地化存储,从来不是一句空话。
警惕“数据无国界”的陷阱
数据本地化存储、建立多备份机制,才能确保极端情况下的数据生存能力。
数据主权,已经成为新的全球战略博弈场。
最后想说一句扎心的真话:
AI在战争中的全面应用,标志着“软件定义战争”的新纪元已经到来。
人类不再是战争的主体,只是软件的执行接口。
当代码开始决定生死,
人类最大的权力,从来不是点击确认,而是拒绝运行。
但谁来拒绝?
是每一个不愿放弃独立思考、不愿交出数据主权的普通人。
互动话题
当AI越来越深地介入战争,你觉得人类该守住的底线是什么?欢迎在评论区留下你的看法。
夜雨聆风