从“APP暴政”到“AI军火商”:Palantir宣言背后的大国博弈与资本逻辑
全球化的墓碑还没刻完碑文,硅谷的战争号角就吹响了。就在几天前,美国软件巨头Palantir在X平台发布了一份22条纲领式的“宣言”,核心只有一个意思:“硅谷的工程精英有义务积极参与国家防御。”宣言宣称原子时代的威慑体系正在终结,一个建立在AI基础上的新威慑时代已经开端。公司将矛头直指硅谷的“APP暴政”,嘲讽iPhone虽然改变了人的生活,却反过来定义了人的想象力边界——言下之意:你们还在琢磨让用户刷短视频的时候,我们已经把AI嵌入伊朗战场的杀伤链了。
这不是一家普通科技公司的市场文案。Palantir是什么来头?它是美国最早、最深地涉足国家安全领域的软件巨头。从乌克兰战场的情报支持到美军无人机打击方案生成,从斩首伊朗高级将领到加沙地带的AI辅助空袭,背后都有它的影子。创始人彼得·蒂尔是硅谷精神教父,现任CEO卡普师从德国哲学家哈贝马斯——这位哲学家恐怕做梦也没想到,自己的博士生的书,最终变成了美军的“企业版作战手册”。更值得玩味的是,直接用企业官方账号发布CEO的个人著作摘要,本身就是一种宣示:这家公司不是在做生意,它是在做意识形态的输出和权力的建构。而宣言中那句“我们的对手不会停下来进行关于AI武器化正当性的戏剧化辩论”,翻译成大白话就是:别磨叽了,干就完了。
这一切,值得咱们好好掰扯掰扯。从教员哲学的角度看,这背后揭示的是什么——是资本的内在冲动、大国博弈的形态转换、以及技术-社会关系的根本性重构。今天,我们不写论文,不堆术语,就聊聊这几个事儿。
一、“新冷战”的生意经:资本从来不讲情怀
教员在《中国革命战争的战略问题》里说过一句话,大意是:研究战争要先研究战争的发生和发展,政治决定军事,军事是政治的延伸。但今天,硅谷发生的事情告诉我们:军事已经成为资本的一门大生意,而资本反过来正在重塑政治。Palantir这份宣言,表面上是爱国主义檄文,但扒开它的外衣,你会发现底下全是钱。
咱们看数据。2026年第一季度,Palantir营收同比增长85%至16.3亿美元,美国政府业务收入增长84%至6.87亿美元,而美国商业业务收入更是暴涨133%至5.95亿美元,两者已经在同一个量级上赛跑。公司直接将全年营收预期上调至76.5亿美元以上,远超华尔街此前的72亿美元预期。更离谱的是,CEO卡普在该季度财报电话会上公开表示,公司会把美国战斗员的需求放在第一位,商业客户往后排。商业科技公司公开宣称把战争需求放在第一位,这在十年前根本无法想象。
再看美国国防部的盘子。五角大楼公布的2027财年预算提案,军费高达1.5万亿美元,较上一年激增42%,创下现代史上最高纪录。其中,光是一个“国防自主战争小组”就拿到546亿美元拨款,专门砸向AI和无人系统。特朗普政府祭出的“创世纪行动”将AI竞赛对标当年的“曼哈顿计划”,不惜以联邦行政力量扫除一切阻碍算力的监管“减速带”——什么叫“速度即正义”?就是你敢拦我发展AI,我就起诉你。
资本为什么要这么干?教员早说过,资本来到世间,从头到脚每个毛孔都滴着血和肮脏的东西。但今天的资本进化了——它现在滴的不是血,是算法。传统的军工巨头洛克希德·马丁、波音,是靠造飞机造导弹赚钱。但Palantir的模式是“软件定义战争”——把AI做成武器系统里的“操作系统”,然后向五角大楼收取永久性的服务和升级费用。一旦军方部署了Palantir的AI系统,要换掉它就意味着替换整条杀伤链。这种商业模式,比卖飞机更能锁定未来数十年的现金流。资本逐利的内在逻辑没有变,只是披上了“国家责任”的外衣。
Palantir的宣言特别提到了一个很有意思的概念:必须终结“APP暴政”,把硅谷的技术能量从社交、消费、娱乐转向硬实力。这不就是咱们前几年一直讲的“脱虚向实”吗?当然,咱们说的“实”是实体制造业,而Palantir说的“实”是战场上的硬杀伤。但从哲学逻辑上讲,两者有一个共同的核心判断:纯虚拟的流量经济已经走到了一个瓶颈,技术必须回到物理世界去创造“真实价值”——只不过,他们定义的价值是摧毁对方的能力,而我们定义的价值是建设的能力。
二、硅谷的倒戈:从全球化旗手到主权博弈的武器
咱们还得聊一个更有意思的变化:硅谷的身份转变。过去三四十年,硅谷一直被视为全球化的旗帜。谷歌要让全世界的信息触手可及,Facebook要让全人类互联互通,Uber要让每个人都能随时随地打到车——这些故事的内核是“世界是平的”。资本渴望全球市场,技术寻求全球用户,这是硅谷曾经的政治正确。
但今天,这一切正在被颠覆。Palantir的宣言里写得很直白:“软外交和华丽演讲的边界已经彻底暴露。自由民主社会仅仅靠道德感召是无法取胜的。我们需要硬实力。而21世纪的硬实力将建立在软件之上。”这段话翻译过来就是:别再跟我谈价值观输出了,战场上谁拳头硬谁说了算。
为什么硅谷会发生这么大的转向?
第一个原因是安全威胁的直接化。冷战结束后,硅谷觉得自己离国家防御很远,只要代码写得好,客户遍布全球,谁管我跟哪个国家的军方合作。但随着大国博弈的加剧,尤其是俄乌冲突、中东局势的激化,科技公司开始意识到:你不可能永远在两边都做生意。你的芯片供应链、你的专利技术、你的核心算法,都是国家安全竞争的标的。美国2027财年国防预算案已明确将“大国竞争”作为核心逻辑,国防预算猛增42%,而硅谷科技公司被定位为“国家竞争力的延伸”。资本必须站队。
第二个原因是商业利益的结构性转移。以前硅谷最赚钱的模式是什么?是C端流量变现——用户越多、时长越长、广告收入越高。但到了今天,C端流量已经触顶,增长红利消失,全球监管趋严。那么新的增长点在哪里?从Palantir的财报就能看出来:B端和G端(政府端)正在爆发。一季度美国商业收入增长133%,政府收入增长84%,两者几乎已并驾齐驱。美国政府不仅是客户,更是最大的风险资本——它帮你扫清监管壁垒、给你巨额订单、还为你排除竞争对手。为什么被列入“供应链风险”黑名单的Anthropic被挤出军工市场,而其他八家巨头乖乖听话?因为你不听话,政府就让你的算力受限、市场受限,直接把你边缘化。
第三个原因是意识形态的生产。PayPal黑帮出身的彼得·蒂尔,是硅谷最著名的右翼自由意志主义者。Palantir的CEO卡普,则用近乎哲学家的笔触把这场转向包装成“责任”和“历史必然”。这实际上是资本的意识形态再生产——用一套国家责任、人类命运的话语,来遮蔽资本的逐利冲动。去年11月,卡普甚至警告“如果美国输掉AI竞赛,我们都会失去自由”,直接把AI竞争等同于权利和安全问题。从教员哲学里“政治决定军事”到“军事服务政治”再到层层叠叠的逻辑指涉与资本控制,我们对历史的描述会刻画得更加精致,却无法避开一个根本判断:在这场科技巨头转向参与大国博弈的叙事变迁中,武器化AI的发明者、鼓吹者和最终得利者的身份实现高度重合。
三、“杀死一个工程师”:宣言背后,战场正在吞噬整个社会
这份宣言还有一些特别“扎人”的条款。比如它直接提出了恢复普遍兵役制:“国民服役应成为一项普适义务。作为一个社会,我们应该认真考虑脱离完全志愿服役制,下一场战争只有在全民共同承担风险和代价的情况下才能打。”什么意思?就是说打仗不能光让底层穷小子上战场,硅谷的亿万富翁工程师也应该被征召入伍。宣言甚至说,“如果一位美国海军陆战队员要一支更先进的步枪,我们就应该造出来。对于软件也是一样。”这句话的潜台词非常可怕:工程师就是新时代的士兵,代码就是新时代的步枪。
这背后体现了一个逻辑:技术-社会-战争的边界正在彻底模糊。以往,普通人觉得战争是新闻上的事,跟自己的生活隔着一层。但今天,随着AI武器化、战争智能化,你坐办公室敲代码和战场上无人机识别人脸之间,可能只隔着一行代码的距离。就在4月,美国国防部与SpaceX、OpenAI、谷歌、英伟达等八家顶尖AI企业达成协议,允许将企业AI技术部署至美军方机密网络。英伟达的GPU成了“算力心脏”,OpenAI的大模型直接用来生成打击方案,SpaceX的星链负责战场通信——这些你平时用来写作文、画头像的东西,正在变成杀人的工具。
再从全球格局看,“科工复合体”这个新概念正在取代传统的“军工复合体”。以前是波音、洛马拿大单,现在是硅谷新贵主导承建1850亿美元的“金穹”反导系统“数字大脑”,传统军工巨头反而退居分包商。一个月前,AI防务公司Scout AI拿到了1亿美元A轮融资专门开发无人作战AI模型。整个军工产业的权力版图正在被硅谷改写。
战争形态变了,国际经济的底层逻辑也随之变了。全球化时代,资本讲求的是效率、利润、低成本。但今天,安全正在压倒效率。一方面,美国厂商开始要求军工产业链回流本土——因为AI武器系统的敏感数据和核心技术不能放在海外。另一方面,关键矿产、芯片制造、数据存储都成为大国博弈的焦点。全球供应链不再以“成本最低”为标准,而是以“谁控制谁”为核心逻辑。美军弹药库存不足的问题在俄乌和中东冲突中暴露无遗,这恰恰推动了硅谷科技公司以“软件弥补硬件短板”的逻辑进入军工核心圈。
另外不容忽视的是AI武器给全球安全带来的不可控因素。美伊冲突中,AI系统已经被用于大批量目标识别和打击。位于伊朗霍尔木兹甘省的小学遭空袭造成168名女童遇难,美媒定性为AI“目标识别错误”。但问题在于,谁授权算法犯错的?谁批准AI在战争领域自由裁量的?当五角大楼以“速度优先”驱动AI军事合作时,普通人的生命安全被挤到角落。联合国秘书长古特雷斯不得不警告:“人类命运不能交由算法决定。”但照目前的趋势,谁的警告还能管用呢?
四、我们该怎么做?
硅谷的“倒戈”不是孤立现象,它是全球地缘裂变的一个缩影。从中长期看,它将给世界经济和全球治理带来至少三重冲击:一是全球产业链将进一步政治化。技术供应链的“双轨制”趋势会加强——一套系统为国家安全服务,另一套系统用于全球化市场。对于众多科技企业来说,这意味着战略成本的大幅抬升。二是技术发展将日益与安全捆绑。过去我们对AI发展的担忧集中在隐私、就业、算法偏见等软性问题上,但今天AI已经直接与主权安全挂钩。三是大国博弈将在技术标准层面全面激化。谁的AI技术标准被世界接受,谁就能主导全球数字治理话语权。联合国《特定常规武器公约》框架下对自主杀伤武器的禁止性讨论,已在美国的“速度优先”逻辑下大面积搁浅。
那么,我们应该怎么办?
教员的观点是,“你打你的,我打我的;你打得你的优势,我谋我得我的空间。”Palantir代表了美国在军事AI领域的深层动员逻辑——但我们要走的路,不是效仿别人搞武装化AI的疯狂,而是在技术自立的基础上坚持科技向善的底线逻辑。中国在AI治理上已经做了很多,比如发布《全球人工智能治理倡议》、在联合国公开表达防止AI武器体系滥用的立场、持续推动“以人为本、智能向善”的理念。这些工作和努力本身就是对“算法失控”的制衡。
同时,我们也在加速推进军民融合发展——把高新技术从实验室、民用企业自然地整合到国家安全体系中去。广西崇左军分区开展无人智能装备预征预储,把无人机、机器狗编入民兵队伍。中国兵器工业集团召开智能化赋能大会。这些做法和Palantir那种“以AI为刀”的激进路数完全不同,但走的是一条技术赋能自主安全的地方路径。是的,我们不推崇战争,但我们必须在底线安全意义上,保证技术为国家稳定服务。
最终,这场硅谷的转向其实在追问一个最基本的哲学命题:技术到底是工具,还是国家的武器? Palantir的回答是——它既是美国科技延续霸权体系的引擎,也是利润创造机器和工程师个人信仰的延伸。而我们的回答应该是——技术进步必须最终服务于人的解放,而不是人的毁灭。在这一点上,走一条更理性、更共生、更负责任的技术发展之路,可能才是对抗AI军事狂热的最冷静方案。Palantir说出了硅谷要“承担责任”,但人类最大的责任不是杀死多少人,而是让战争成为历史书里的篇章,而不是明天的播报。 这
夜雨聆风