乐于分享
好东西不私藏

不造武器却成军备基建?揭秘谷歌机密AI协议的资本逻辑

不造武器却成军备基建?揭秘谷歌机密AI协议的资本逻辑

神谕与利刃:2026谷歌与五角大楼合作中的“自主性悖论”与硅谷伦理断层

在2026年全球国防战略的演变中,前沿人工智能模型正从实验性技术迅速向动力性打击(kinetic operations)与情报收集的深层核心过渡。在这场技术军事化的浪潮中心,美国国防部与硅谷科技巨头之间的关系愈发错综复杂,而谷歌(Google)最近在五角大楼两项核心军工项目中的截然不同的决策,完美地诠释了当代科技企业所面临的“自主性悖论”(The Paradox of Autonomy)。这一悖论不仅揭示了企业在追求巨额军事合同利润与维护长期标榜的技术伦理边界之间的剧烈冲突,更凸显了在缺乏国际统一规范的背景下,将通用人工智能转化为致命性武器基础设施的深层风险。

作为Alphabet Inc.的核心子公司,谷歌在公开市场的表现与这些军事合同的动向息息相关。Alphabet(纳斯达克股票代码:GOOGL)的股票在谷歌确认退出价值一亿美元的五角大楼人工智能无人机项目后,在周二的交易时段小幅下跌了约0.24%。尽管遭遇了这一由于内部伦理审查而引发的波折,华尔街分析师对Alphabet的长期表现依然保持着压倒性的乐观态度,在过去的三个月中给出了26个“买入”和5个“持有”评级,维持了“强力买入”(Strong Buy)的共识。其共识目标价设定在387.68美元,这意味着较当前交易水平仍有约11%的潜在上涨空间。同时,该股今年的整体波动也反映了与更广泛的科技板块趋势相一致的宏观经济逆风。

动力性打击的诱惑与恐惧:退出“无人机群协调员”竞标

2026年1月,美国国防创新小组(DIU)联合美国特种作战司令部自主战小组(DAWG)及美国海军,共同启动了价值一亿美元的“无人机群协调员”(Orchestrator Prize Challenge)竞标项目。该项目的核心诉求是解决现代无人战争中的一个关键瓶颈:人类操作员的认知负荷。根据现行的作战原则,一名操作员通常只能控制一架无人机,极大限制了无人系统的扩展性和战术影响。五角大楼希望开发出一种能够通过统一、日常的自然语言或语音界面,同时管理空中、海上和地面多域异构车队的软件系统。

在这个被称为“边缘环境”(edge environment)的战区中,网络连接可能降级,GPS可能被拒绝,且云端访问受限。因此,协调员软件必须在本地硬件上运行,实时处理诸如“保持阵地、节省电量,除非威胁越过B线,否则等待进一步任务”等复杂的军事指令。最令谷歌内部担忧的是,五角大楼明确表示这一人机交互层将“直接影响这些系统的杀伤力和有效性”。

2026年2月11日,就在谷歌的提案成功晋级几周后,公司突然向美国政府提交通知,宣布退出该无人机群挑战赛。谷歌官方对外宣称退出的理由是“资源分配不足”(lack of resourcing),并表示希望将精力集中在“我们的模型能最有效发挥作用的倡议上”。然而,彭博社审查的内部文件表明,退出的真正催化剂是一次激烈的内部伦理审查。尽管参与该项目竞标的联邦销售主管Scott Frohman(曾在2018年Project Maven风波中扮演关键角色)等部门人员对此表示失望,但该项目涉及目标感知、发射到终止的闭环控制,显然触碰了公司内部反对开发全自主致命性武器的伦理红线。经合组织(OECD)AI监测机构也将此次事件定性为“AI危险”(AI Hazard),指出这类自主无人机群的开发在军事应用中可能会引发伤害或侵犯人权等重大风险。

AI作为基础设施的模糊界限:2亿美元的机密Gemini协议

然而,这种伦理坚守充满了选择性和战略上的妥协。在退出无人机竞标的同时,谷歌与五角大楼签署了一项价值2亿美元的机密协议,允许其Gemini大语言模型用于“任何合法的政府目的”(any lawful government purpose)。这一战略转型标志着谷歌正从规避直接武器开发,转向将AI作为底层“基础设施”大规模接入国防体系。

根据该合同修正案,五角大楼可以在影响力级别6(IL6)和7(IL7)的网络上部署Gemini模型。IL6网络处理“机密”数据,而IL7网络则涵盖最高机密的国家情报和武器目标系统。由于这些网络是物理隔离(air-gapped)的,谷歌在交付API访问权限后,将完全失去监控能力。谷歌无法看到军方运行了什么查询、生成了什么输出,或是利用这些输出做出了何种战术决策。

合同中所谓的安全护栏引发了广泛的质疑。虽然文件中包含了“不应在没有适当人类监督的情况下用于国内大规模监控或自主武器”的建议性条款,但这只是意向性的描述,而非具有约束力的禁令。此外,合同明确赋予政府要求谷歌调整AI安全设置和内容过滤器的权利,且谷歌“无权否决合法的政府行动决策”。这种“任何合法目的”的措辞被批评者视为五角大楼的未来漏洞:随着行政命令或立法的改变,大规模监控或自主目标的合法性可以随时被重新定义。通过提供底层算力和情报综合能力,谷歌试图在声称“不制造武器”的同时,赚取数百亿美元的机密国防市场份额,其宣称的基础设施与具体武器之间的界限在IL7机密网络中变得毫无实质意义。

内部断裂与劳工抗争:DeepMind工会与企业道德的重塑

这种表面伦理与实际妥协的双轨制,激起了谷歌内部尤其是核心AI研发部门的强烈反弹。2026年4月,超过600名谷歌员工——包括20多名总监、副总裁及DeepMind的高级研究员——向首席执行官Sundar Pichai递交了联名信,敦促他拒绝针对美国国防任务的机密工作。员工们在信中警告,将AI暴露在无法监控的军事用途中,可能会导致模型犯错并被用于“不人道或极其有害的方式”,对公司的声誉和商业利益造成“无法弥补的损害”。

这一抗议不仅是对近期合同的反应,更是由于员工们意识到谷歌管理层正在系统性地侵蚀其过往的伦理承诺。在2018年的Project Maven(利用谷歌计算机视觉技术分析无人机画面)抗议中,4000多名员工的施压曾迫使谷歌放弃续约,并颁布了禁止将AI用于武器或违反国际规范的监控技术的人工智能原则。然而,在2025年2月,谷歌却静悄悄地从其公布的原则中删除了明确反对开发武器AI的条款,理由是“争夺AI领导地位的全球竞争正在上演”。

面对管理层的决绝,员工们的抗争在2026年5月达到了新的历史节点。谷歌DeepMind在英国办公室的员工以98%的赞成票决定加入通信工人工会(Communication Workers Union)和Unite the Union工会。DeepMind借此成为世界上首个组织工会的前沿人工智能实验室。工会提出的诉求并非传统的薪酬福利,而是纯粹的技术治理要求:停止以色列和美国军方使用谷歌AI、恢复被废除的武器AI禁令、建立独立的伦理监督机构,以及赋予研究人员因道德原因拒绝参与特定项目的个人权利。这种从“内部谏言”向“制度化劳工对抗”的演变,凸显了在利润驱动下,科技巨头单方面设立的伦理审查机制已经彻底失去了技术开发者的信任。

妥协与代价:Anthropic被列入黑名单的对比参照

在硅谷科技巨头中,谷歌的妥协在与另一家AI领军企业Anthropic的遭遇对比下显得尤为刺眼。在2026年早些时候,尽管谷歌向Anthropic投资了高达400亿美元,Anthropic却拒绝了五角大楼提出的“任何合法目的”条款。Anthropic坚持不妥协其Claude模型的安全护栏,坚决反对将其技术用于自主武器的控制和国内的大规模监控,坚持要求在模型中保留无法被军方绕过的人类监督机制。

作为对这种“强硬”伦理坚持的回应,美国国防部长Pete Hegseth采取了前所未有的惩罚性措施。五角大楼正式将Anthropic指定为“供应链风险”(Supply Chain Risk)——一个通常只用于针对外国敌对势力的标签。随后,特朗普总统指示所有联邦机构立即停止使用Anthropic的技术,美国总务管理局终止了其“OneGov”合同。这种残酷的“胡萝卜加大棒”策略,向整个AI行业传递了一个极其明确的信号:坚守伦理底线的企业将面临联邦级别的封杀和百亿美元市场的丧失,而像OpenAI、xAI和谷歌这样愿意移除或放宽护栏的企业,则能顺利切入这块庞大的军工蛋糕。

大国博弈下的技术故障风险与责任鸿沟

谷歌和五角大楼面临的悖论,其更宏大的背景是日益激烈的地缘政治竞争,尤其是美中两国在自主武器领域的军备竞赛。到2026年初,国防分析人士观察到中国已经展示了一名操作员同时控制多达200架无人机群的能力。在避免失去“决策优势”(decision superiority)的压力下,五角大楼急于绕过传统的长周期采购,利用硅谷的现成技术建立“人工智能优先的作战力量”。

然而,将未经全面验证的生成式AI和大语言模型直接引入动力性打击环境,存在着巨大的技术灾难风险。业界专家普遍警告,大语言模型(LLMs)极易产生“幻觉”(hallucinations),即生成极其自信但完全违背事实或逻辑的输出。在信号恶劣、瞬息万变的“边缘环境”中,如果前线指挥官通过语音要求无人机群执行任务,大语言模型对日常语言的微小误解(如将“待命/hold”错认为“折叠/fold”,或者对威胁边界的错误计算),都可能导致灾难性的友军误伤或平民伤亡。

在此技术现实下,“自主性悖论”引发了深刻的法理学和伦理学辩论。从伦理学上讲,部分学者认为开发能自主决定生死的武器在本质上是邪恶的(mala en se),因为这剥夺了被杀戮者的尊严,并将战争去人性化(dehumanizing warfare)。更棘手的是“责任鸿沟”(responsibility gap)问题:由于AI系统的决策过程(尤其是基于神经网络的黑盒模型)难以完全追溯,当自主系统在战场上犯下相当于战争罪的致命错误时,究竟是由前线操作员、AI程序员、公司高管,还是采购官员来承担法律与道德责任? 五角大楼追求的无按钮、高速语音交互层虽然能够加快杀伤节奏,但却以牺牲人类深思熟虑的核查为代价,使得上述追责机制在现实中几乎无法运作。

免责声明: 本分析文章仅供信息参考与学术探讨之用,不构成任何形式的投资建议或财务指导。文章中提及的关于Alphabet Inc.(GOOGL)的市场表现、目标价格及分析师评级等财务信息,均基于特定时间点的市场公开数据及新闻报道进行引用,不保证其未来的准确性、完整性或时效性。此外,本文对相关科技公司与政府机构之间商业合同、内部政策、劳工动态及技术风险的解读,旨在梳理公共领域的公开信息并进行客观剖析,不代表对任何当事方的法律裁定或道德审判。读者在做出任何金融投资、商业合作或政策制定决策时,应独立寻求专业的财务、法律及合规顾问的意见。本平台及作者对因依赖本文内容而采取的任何行动或由此产生的直接/间接损失,不承担任何法律责任。

点击阅读原文链接搜索往期相关文章

本文由「华尔街俱乐部」推荐,敬请关注公众号: wallstreetclub
声明:本文仅代表作者个人观点,不构成投资意见,并不代表本平台立场。文中的论述和观点,敬请读者注意判断。
版权声明:「华尔街俱乐部」除发布原创市场投研报告外,亦致力于优秀财经文章的交流分享。部分文章、图片和资料来自网络,版权归原创。推送时未能及时与原作者取得联系。若涉及版权问题,敬请原作者添加WSCHELP微信联系删除。谢谢授权使用!
关于我们
华尔街俱乐部凝聚华尔街投行的高端资源,为中国民营企业“走出去”提供全方位的顾问服务,包括企业赴美上市、战略投资、并购、私募路演和投资者关系等。在投资理念和技术方面提供华尔街投行专家实战培训,为您进入华尔街铺设成功之路。联系我们:ecompo@mail.com