近日,美以两国联合对伊朗发动军事行动,人工智能(AI)技术在此次行动中被大规模投入使用,其在军事领域的应用边界引发国际社会广泛关注,关于AI技术武器化的担忧持续升温。与此同时,美国两大AI巨头与军方的合作纠葛,进一步凸显了AI技术军事化应用背后的伦理与安全争议。

据央视新闻、新华社等权威媒体报道,在此次对伊军事行动中,美以双方均大量运用AI技术提升作战效能。以色列使用的“破冰者”导弹融合人工智能算法,具备大场景匹配和分析判断能力,可自主确定飞行路径、辨别真假目标,甚至能与其他导弹“沟通交流”,凭借深度学习技术完成自主任务执行。美军则动用Anthropic公司研发的AI大模型Claude,用于情报评估、目标识别及作战场景模拟,快速处理海量非结构化战争数据,大幅缩短了从目标识别到发动打击的“杀伤链”周期。
AI技术在实战中的密集应用,引发国际社会对其武器化的高度警惕。伦敦玛丽女王大学伦理、技术与社会学教授大卫·莱斯利警告,对AI的过度依赖可能导致人类决策者被边缘化,甚至出现“认知能力下降”,使得决策与行动后果脱节,因为核心思考过程已由机器完成。纽卡斯尔大学政治地理高级讲师克雷格·琼斯也指出,AI系统规划作战的速度远超人类思考,以往需数天甚至数周的作战规划,如今可在极短时间内完成,这种“决策压缩”现象正在改变战争形态,带来未知风险。
就在美以军事行动引发争议的同时,美国AI企业与国防部的合作纠葛持续发酵。据英国广播公司(BBC)3月3日报道,AI巨头OpenAI与美国军方达成合作协议后,引发用户强烈不满,大量用户选择卸载其旗下应用ChatGPT。美国移动应用数据分析公司Sensor Tower的数据显示,2月28日OpenAI宣布与五角大楼达成协议当天,ChatGPT美国地区移动应用卸载量较前一天暴增295%,较过去30天9%的日均卸载率增长约200%,下载量也同步出现下滑。
面对用户抗议和舆论压力,OpenAI不得不大幅修改合作协议。该公司首席执行官萨姆·奥尔特曼于3月3日在社交平台X上公开致歉,承认此前公布合作协议的行为“投机且草率”,并宣布修改协议内容,明确禁止其AI技术被用于监控美国民众,同时规定服务不得用于国防部情报机构,如需提供需另行修改合同。
这一风波的背后,是另一家AI企业与美国国防部的激烈争执。据环球网、央视新闻报道,上周五(2月27日),OpenAI的竞争对手Anthropic公司因坚持拒绝移除其大模型Claude的两项安全限制,与美国国防部产生严重分歧并遭到“封杀”。五角大楼此前要求Anthropic取消禁止Claude用于美国国内大规模监控和全自主致命性武器的限制,而Anthropic首席执行官达里奥·阿莫迪明确表示,此类应用超出了当前技术安全可靠执行的边界,不愿“昧着良心”妥协,最终被国防部列为“供应链风险”企业,并被要求联邦机构停止使用其产品。

Anthropic被“封杀”的次日(2月28日),OpenAI迅速宣布已与五角大楼达成合作协议,并声称该协议“比以往任何AI部署协议的安全护栏都要多”。据悉,该协议明确划定三条红线,禁止AI技术用于大规模国内监控、自主武器系统及高风险自动决策,并通过云上部署、派驻工作人员等技术手段保障条款落地,试图打消外界疑虑。
目前,AI技术军事化应用的争议仍在持续。Anthropic已表示将就被“封杀”一事起诉美国政府,而OpenAI的合作调整能否重建用户信任、缓解国际社会担忧,仍有待观察。国际社会普遍呼吁,应尽快建立AI技术军事应用的国际规则与伦理规范,防范技术滥用带来的人道主义危机,推动AI技术朝着有利于人类和平与发展的方向发展。
部分素材来源:相关网络媒体
整合:光电链接,如整合内容涉及版权等问题,请与我们联系,我们将及时采取适当措施。
· 韩国芯片出口“狂飙”,英伟达新芯登场,全球芯片市场格局生变?
夜雨聆风