过去一周,OpenAI和美国国防部的一纸合同,把整个AI圈搅翻了天。
合同内容很简单:OpenAI要把它的AI部署到美国国防部的机密网络上。官方说法是"提升国家安全能力"。
但用户的反应也很直接:一夜之间,ChatGPT的卸载量飙升295%。一个叫做"#QuitGPT"的运动在X上迅速发酵,超过250万人表态支持。
这不是第一次,但可能是最分裂的一次
科技公司和军方合作不是新闻。Google做过,微软做过,亚马逊也做过。
但AI不一样。
ChatGPT不是普通的办公软件。它是过去两年里和我们对话最多、了解我们最深的"存在"。很多人用它写情书、做心理咨询、整理人生困惑。
现在这家公司说:我们要把同样的技术交给国防部。
用户的恐慌不难理解。如果它能在战场上"提升国家安全能力",那它在和平时期收集的数据,会不会有别的用途?
Anthropic的"捡漏"
最有意思的是接下来的剧情。
就在OpenAI宣布合同的同时,Anthropic明确表态:不会和国防部签类似协议。
结果?Claude在美国App Store免费榜上直接超越ChatGPT,成为下载量最高的AI应用。
这不是产品功能的胜利,是价值观的胜利。
用户用卸载和下载,投了一票。
国内的镜像问题
这件事放在国内语境下,有点像什么?
有点像某个云服务商突然宣布:你的数据可能会被用于某些"国家安全相关"的场景。
你会怎么想?
这不是阴谋论,这是每一个用AI的人都要面对的真实问题:你把最私密的思考交给了一个黑箱,这个黑箱的掌控者现在告诉你,它和军方有了合作。
信任的建立需要两年,崩塌只需要一条推文。
观点:AI公司的价值观,就是产品的一部分
我之前一直觉得,AI产品竞争的是模型能力、响应速度、价格。
这次事件让我意识到,价值观也是产品力。
而且可能是越来越重要的一部分。
为什么?
因为AI不是普通工具。它和你对话,它了解你的偏好,它帮你做决策。你和它的关系,比你和任何一个App都更深。
在这种情况下,制造它的公司是什么价值观,直接影响你愿不愿意继续信任它。
OpenAI的选择可以理解——商业化压力、竞争格局、政治环境。但它可能低估了用户对这件事的敏感程度。
Anthropic的拒绝也可以理解——安全理念、品牌定位、差异化竞争。但它确实在这个节点上,收获了大量"失望的用户"。
对国内用户的启示
这件事给我们的提醒是什么?
第一,不要把所有鸡蛋放在一个篮子里。至少准备两个AI工具,一个主用,一个备用。
第二,关注AI公司的动向。不是要你变成阴谋论者,而是要有基本的风险意识。它们和什么机构合作、数据政策怎么变,都值得关注。
第三,也是最重要的:想清楚你愿意为什么样的价值观付费。
每一个订阅、每一次使用,都是在投票。你选择支持什么,市场就会奖励什么。
ChatGPT还是很好用的。但我卸载它的那个晚上,我在重新思考一个问题:
我付费的,到底是一个工具,还是一个我愿意信任的存在?
这个问题,每个用AI的人都该问自己一遍。
✍️ 更多 AI 热点 → X @HigandS99073
夜雨聆风