
AI公司的价值观选择,第一次被消费级用户定了价。
2月27日,OpenAI宣布接手一份价值2亿美元的五角大楼合同。48小时后,ChatGPT的卸载量暴涨295%,一星评价飙升775%,150万人加入了一个叫"QuitGPT"的运动。同一时间,竞争对手Anthropic的Claude登上了美国App Store第一名——不是靠新功能发布,而是靠拒绝签同一份合同。
这组数据的罕见之处不在于数字本身。科技公司遭遇抵制并不新鲜,从Facebook的Cambridge Analytica丑闻到Google的Project Maven军事AI项目,用户愤怒来得快去得也快。罕见的是,这一次抵制的触发点不是数据泄露、不是产品缺陷,而是一家公司选择签了一份另一家公司拒绝签的合同。用户不是在惩罚错误,而是在给价值观标价。
48小时用户反应
295% — ChatGPT卸载量暴涨
775% — 一星评价飙升
150万 — QuitGPT运动参与者
51% — Claude下载增长,登顶App Store
事情的起因可以追溯到五角大楼与Anthropic之间长达数月的谈判。Anthropic在2025年7月拿下了一份2亿美元的国防部合同,部署AI模型到军方的保密网络中。但合同执行过程中,五角大楼提出了新要求:取消所有使用限制,允许军方将AI用于"一切合法用途"。
Anthropic的CEO Dario Amodei回应说,他"在良心上无法同意"五角大楼的要求。Anthropic坚持两条红线:不允许AI用于大规模国内监控,不允许AI用于全自主武器系统。这不是笼统的道德宣言,而是写在合同条款里的具体禁止事项——什么能做、什么不能做、边界在哪里,逐条列明。
谈判破裂后的事态发展超出了商业纠纷的范畴。特朗普总统当天签署行政令,要求联邦机构"立即停止使用"Anthropic的技术。国防部长Hegseth更进一步,宣布将Anthropic列为"供应链安全风险"。
这个标签的分量需要放在背景下理解。"供应链安全风险"是美国政府用来对付华为、卡巴斯基这类被认定威胁国家安全的外国公司的惩罚工具。它不只终止当事公司的政府合同,还要求所有想和军方做生意的公司断绝与"风险方"的合作关系。一家总部在旧金山、由前OpenAI高管创立的美国AI公司,被自己的政府贴上了通常只给对手国企业的标签。
这一标签"在法律上站不住脚,并为所有与政府谈判的美国公司开创了一个危险先例"。
— Anthropic 公司声明
就在Anthropic被列入黑名单的同一天,OpenAI宣布与五角大楼达成协议。时间线之紧凑引发了广泛质疑——Sam Altman后来也承认,交易"looked opportunistic and sloppy"(看起来是投机的,而且很仓促)。
两份合同的本质差异不在金额,在于对风险的处理方式。Anthropic的策略是具体禁止:在合同中逐条写明哪些用途被禁止,军方的使用范围有明确边界。OpenAI的策略是默认信任:合同允许军方将AI用于"一切合法用途",依赖的是一个假设——政府不会做违法的事。
MIT Technology Review的分析指出,这正是Anthropic所担忧的妥协。"一切合法用途"的措辞留下了巨大的解释空间。军事情报机构是否可以使用AI分析商业可得的数据——比如手机定位数据、健身App数据——并将其大规模整合用于追踪美国公民?从字面上看,只要现行法律未明确禁止,这就属于"合法用途"。
OpenAI在随后修订的合同中添加了三条红线:不用于大规模国内监控、不用于全自主武器、不用于"社会信用"式自动决策系统。但批评者注意到,这些限制是OpenAI单方面声明的,不是与五角大楼谈判得来的合同条款。一份声明和一份合同条款之间的执行力差距,在涉及国家安全的领域里,可以非常大。

OpenAI内部也并非铁板一块。CNN报道,近900名OpenAI和Google员工签署了公开信,要求自己的公司拒绝军方对AI的不受限使用。部分OpenAI员工公开质疑"一切合法用途"这一措辞的含义,认为合同缺乏足够的安全保障。用一位员工的话说,很多人"真的尊重"Anthropic选择站出来说不。
但用户的反应是否被过度解读了?
295%的卸载增长看起来惊人,但需要放在基数里理解。ChatGPT过去30天的日均卸载波动率是9%,295%意味着卸载量大约是平时的4倍。QuitGPT声称的150万参与者中,有多少是付费用户,有多少只是在社交媒体上转发了一条帖子?一星评价暴涨775%,但App Store的评价样本量本身就小,几千条评价的波动在统计上并不一定代表用户群体的整体态度。
Claude的下载量确实在同期增长了51%并登顶App Store。但App Store排名反映的是短期下载增速,不是绝对用户规模。ChatGPT的月活用户数以亿计,Claude的基数远小于此。一个周末的排名变化,不等于市场格局的永久重写。
如果到此为止,这就是又一次"科技公司遭遇舆论风波,股价小跌,两周后大家忘记"的故事。
但这次的底层逻辑不一样。
过去十年,科技产品的竞争壁垒是功能和生态。你用iPhone不是因为认同苹果的价值观,而是因为iMessage和AirDrop。你用Google不是因为赞赏它的隐私政策,而是因为搜索结果确实比竞品好。用户被锁在功能护城河里,价值观是一个可以被忽略的维度。
AI聊天助手的局面不同。ChatGPT、Claude、Gemini在核心功能上正在快速趋同——都能写文章、改代码、分析数据。当功能差异缩小到普通用户难以感知的程度时,决定用户去留的因素开始向功能之外漂移。品牌认同、信任感、"这家公司代表什么"——这些在功能主导的时代被视为营销虚词的东西,在功能趋同的时代变成了真实的差异化因素。
Anthropic没有发布新功能。Claude登顶App Store,靠的是一个"不"字。拒绝本身成了产品力。
这对AI行业的含义比一次用户抵制深远得多。它意味着AI公司正在经营两种完全不同的生意——B端(企业和政府采购)和C端(个人消费者),而这两种生意的价值观评价体系可能截然相反。五角大楼需要"没有使用限制"的AI,消费者需要"有明确边界"的AI。对B端客户说"是"的同一个决定,在C端用户那里变成了一个被量化的"错"。
传统科技公司可以靠B端养活自己而不在乎C端舆论——企业软件公司不需要讨好终端用户。但AI聊天助手不是传统B端产品。它的收入结构、品牌认知、人才吸引力都高度依赖消费级市场的口碑。当900名员工签署公开信质疑自己公司的决定时,B端的胜利正在侵蚀C端的根基。
Altman显然也意识到了这一点。他在48小时内承认失误、修改合同、发布新的安全承诺——速度之快,本身就说明消费级市场的压力已经传导到了决策层。但修改后的合同是否足以挽回信任,取决于一个更根本的问题:在"具体禁止"和"默认信任"之间,用户更相信哪种承诺?

两种选择,两种代价
Anthropic — 可计算的代价:2亿美元合同、联邦市场、政府关系
OpenAI — 不可计算的代价:品牌信任度、用户忠诚度、员工认同感
Anthropic选择把边界写进合同条款里,代价是丢掉一份2亿美元的合同和整个联邦市场,外加一个"供应链安全风险"的标签。OpenAI选择用声明代替条款,得到了合同,但付出了295%的卸载量、一个"投机"的公众形象,以及内部员工的公开质疑。
两种选择都有代价,但代价的性质不同。Anthropic的代价是可计算的——2亿美元、联邦合同、政府关系。OpenAI的代价是不可计算的——品牌信任度、用户忠诚度、员工认同感。在消费级市场里,不可计算的资产损失往往比可计算的财务损失更持久。
AI公司过去的护城河建在技术领先性上——谁的模型更强、谁的速度更快、谁的功能更多。这些壁垒在过去两年里被快速拉平。当技术不再是决定性差异时,用户开始用一个新的维度评估AI公司:你愿意为什么说不?
当说"不"比说"是"更有竞争力,这个行业的游戏规则,已经悄悄换了一套。
文 / Zayen知览
构建者视角的深度思考
夜雨聆风