乐于分享
好东西不私藏

OpenAI签军事合同,ChatGPT卸载量暴涨295%——你还会用它吗?

OpenAI签军事合同,ChatGPT卸载量暴涨295%——你还会用它吗?

2月28日,有个数据让很多人沉默了几秒。

ChatGPT 的 App 卸载量,单日暴涨了 295%。

不是用户增长放缓,不是有新竞品抢了流量,而是大量人主动打开手机,找到 ChatGPT 这个图标,按住,删除。

这个动作,背后有个很具体的触发点:OpenAI 和美国国防部签了一份 AI 合作协议。


一件事,引发的连锁反应

3月7日,OpenAI 内部一位叫 Caitlin Kalinowski 的高管选择辞职。她的职位不算低——机器人部门负责人。

她离开的原因写得很清楚:抗议公司与国防部的 AI 合作协议。她认为,这份协议对"监控"和"自主武器"的限制远远不够,OpenAI 正在走向一条她不愿意走的路。

消息出来后,舆论开始沸腾。卸载量的数字是结果,但在这个数字背后,其实是很多用户在问自己一个问题:

我每天用来写邮件、做方案、头脑风暴的这个工具,跟战争和监控扯上关系之后,我还应该继续用吗?

这个问题,没有简单答案。但值得认真想一想。


事情到底怎么回事?

先把来龙去脉说清楚。

OpenAI 原本有一条明确的政策:禁止将 AI 用于军事和武器相关用途。但在 2024 年初,这条政策悄悄被修改了,军事限制被放宽,为政府和国防领域的合作打开了口子。

此后,OpenAI 开始和美国军方合作,据 WSJ 和 TechCrunch 的报道,合作内容涉及 AI 辅助决策系统,具体细节至今未完全披露。Kalinowski 的辞职,是把这件事推到台前的导火索。

更有意思的是,与 OpenAI 形成鲜明对比的,是它的竞争对手 Anthropic。

就在同一周,有另一条新闻几乎被人忽视了:Anthropic 被美国五角大楼列为"供应链风险",双方可能走向对簿公堂。

原因也很简单——Anthropic 拒绝取消对军事使用 AI 的安全限制。它的两条红线明确:禁止大规模监控,禁止自主武器。五角大楼不满意,直接甩出"供应链风险"的帽子。

同一周,一家 AI 公司向军方靠拢引发高管辞职,另一家 AI 公司因为坚守伦理底线被军方施压。两个剧情并排放在一起,戏剧感很强,但折射出的问题很真实。


用户为什么恐慌?

295% 的卸载量,说到底是一种情绪表达。

但这种情绪不是无理的。它背后有几个层次的逻辑。

第一层:数据安全的担忧。

你在 ChatGPT 里输入的内容——工作邮件草稿、会议纪要、竞争对手分析、客户信息——这些数据理论上都会被用来训练或优化模型。当这家公司开始和军事情报体系产生交集,你的数据流向就多了一个未知的变量。

这不是阴谋论,而是一个合理的信息安全问题。企业级用户尤其如此——很多公司的 IT 政策本来就明确要求"不得将敏感业务数据上传至境外 AI 服务",OpenAI 的这一步,让这个要求的执行变得更紧迫。

第二层:伦理代价的计算。

有人可能觉得:我只是用 ChatGPT 写写文章,跟军事有什么关系?

但有一个角度值得想一想:每个付费用户,都是在为这家公司的营收做贡献。而这家公司用这些收入,现在会做什么?

这个逻辑链条不复杂,但它会让一部分有道德洁癖的用户感到不舒服。当工具背后的公司做了你不认同的事,继续用,某种意义上也是一种支持。

第三层:不确定性带来的焦虑。

更根本的问题是:没人知道这条路会走多远。

今天是"AI 辅助决策系统",明天可能是自主武器的训练数据,后天可能是城市监控系统的算法底座。OpenAI 放开限制之后,边界在哪里,没有人给出清楚的答案。不确定性,往往比已知的风险更让人焦虑。


OpenAI 声称的安全红线

当然,事情也有另一面,需要平衡来看。

OpenAI 在协议中并非毫无约束。根据其已公开的说明,这份军事合作设有若干明确限制:模型仅限在云端 API 环境中调用,不向军方提供模型权重,不允许直接集成到武器控制系统;合作范围目前集中在后勤辅助、数据分析、网络安全等非作战场景;OpenAI 保留对使用行为的实时监控权,并可随时中止违规调用。

这些承诺能不能真正落地,是另一个问题。但它们的存在,意味着这不是一次无底线的交割。

Kalinowski 辞职时也承认,她的担忧更多指向"边界可能被进一步突破"的风险,而不是说现有协议已经越线。这个区别值得注意。


留还是走?一个理性决策框架

好,把情绪放一边,来做个理性的判断。

你是否应该停用 ChatGPT,取决于你的使用场景和风险承受度。下面这个框架,可以帮你快速定位。

普通职场用户

如果你只是用来提效——写邮件、整理思路、翻译文档、头脑风暴——实话说,替换成本不低,而直接收益也很难量化。

你需要思考的问题只有一个:你在 ChatGPT 里放了多少敏感信息?

如果一直都在遵守"不放公司内部数据"的基本原则,实际上你的风险敞口并不大。恐慌式删除不一定明智,冷静评估一下使用习惯更重要。

但如果你从来没想过这个问题,这是一个好机会认真想清楚。

IT 管理者和企业决策者

这个问题对你们更严肃。

企业数据合规不是选择题。如果你所在的公司有监管要求(金融、医疗、法律),或者有跨境数据传输的限制,OpenAI 与美国军方的关联,确实会给数据合规审计带来新的变量。

建议做三件事:

审查现有的 AI 使用规范,明确哪些数据类型禁止输入外部 AI 工具

评估现有工具的替代成本,不是要你立刻换,而是要知道你的备选方案

关注 OpenAI 的后续披露,目前合作细节不明,等信息更清晰再做决策并不晚

仓促迁移比什么都不做更危险——迁移过程本身就是数据泄露的高风险窗口。

有强烈伦理立场的用户

如果你的立场是:"我不想让自己的使用行为,哪怕间接地,支持军事 AI 应用"——那没什么好犹豫的,找替代品就好。

选择工具,从来也可以是一种价值观表达。


替代方案怎么选?

好,假设你决定换或者想做备份方案,主流替代品大概是这几个选项。

Claude(Anthropic)

优势: 就是这周"宁可被五角大楼封杀也不妥协"的那家公司。在 AI 伦理立场上,目前是主流模型里最透明、限制最明确的。模型能力强,长文本处理出色,写作质量普遍被认为高于 GPT-4o。

劣势: 工具生态比 OpenAI 弱,API 稳定性历史上有一些抱怨,免费版功能受限。

适合: 对数据伦理有要求的用户,或者主要用途是写作、分析的场景。

Gemini(Google)

优势: 和 Google 生态深度整合,有 Google Workspace 插件,多模态能力强(文本、图片、音频),免费版功能相对慷慨。

劣势: Google 自身的数据收集模式让一些用户同样有顾虑——你从 OpenAI 的担忧跑到 Google,并不一定走出了数据安全的问题域。

适合: 重度 Google 用户,日常用 Google Docs、Gmail 的职场人。

DeepSeek

优势: 国内公司出品,在中国合规场景下有独特优势,模型能力在开源社区评价很高,成本低。

劣势: 服务器在中国,数据存储受中国法律管辖——对于在香港或海外经营、需要考虑两边合规的企业,这同样需要认真评估。另外,作为新兴产品,企业级功能和 SLA 保障还在成熟中。

适合: 国内用户,或者已经在使用国产 AI 工具的企业。

本地化部署(Ollama + 开源模型)

优势: 数据完全不出本地,是数据安全问题的终极解法,适合对数据主权有极高要求的企业。

劣势: 需要 GPU 硬件支持,有一定技术门槛,开源模型的能力和 GPT-4o/Claude 3 系列有差距,维护成本不低。

适合: IT 能力强、数据安全要求极高的大型企业,或者有内部技术团队的公司。


最后,回到你自己

295% 的卸载量是一个集体情绪的截面,但每个删掉 APP 的人,理由都不一样。有恐慌,有原则,有随大流,也有真的做过深思熟虑的判断。

你的选择是哪一种?

真正的问题不是"OpenAI可不可信",而是"你有没有认真想过,你的数据值多少钱,你的使用习惯有没有达到基本的安全标准"。

不管你用哪家 AI 工具,有几件事是没有例外的:

  • 不要把公司未公开的敏感数据输入任何外部 AI 服务
  • 了解你所在地区的数据合规要求,AI 工具的使用要纳入这个框架里
  • 不要因为一个工具换了另一个工具,就觉得问题解决了——数据安全意识才是根本

OpenAI 签了军事合同,这是一个事实。这个事实改变了什么,能改变什么,还没有全貌。但它确实是一个提醒:工具背后的公司在做什么,跟你有关系。

至于你的答案是什么,这一次需要你自己给出来。


本文由 HopeAI 团队出品

作者:HopeAI

素材来源:WSJ、TechCrunch(2026-03-08);OpenAI 官方声明;五角大楼通知文件