2月28日,有个数据让很多人沉默了几秒。
ChatGPT 的 App 卸载量,单日暴涨了 295%。
不是用户增长放缓,不是有新竞品抢了流量,而是大量人主动打开手机,找到 ChatGPT 这个图标,按住,删除。
这个动作,背后有个很具体的触发点:OpenAI 和美国国防部签了一份 AI 合作协议。
一件事,引发的连锁反应
3月7日,OpenAI 内部一位叫 Caitlin Kalinowski 的高管选择辞职。她的职位不算低——机器人部门负责人。
她离开的原因写得很清楚:抗议公司与国防部的 AI 合作协议。她认为,这份协议对"监控"和"自主武器"的限制远远不够,OpenAI 正在走向一条她不愿意走的路。
消息出来后,舆论开始沸腾。卸载量的数字是结果,但在这个数字背后,其实是很多用户在问自己一个问题:
我每天用来写邮件、做方案、头脑风暴的这个工具,跟战争和监控扯上关系之后,我还应该继续用吗?
这个问题,没有简单答案。但值得认真想一想。
事情到底怎么回事?
先把来龙去脉说清楚。
OpenAI 原本有一条明确的政策:禁止将 AI 用于军事和武器相关用途。但在 2024 年初,这条政策悄悄被修改了,军事限制被放宽,为政府和国防领域的合作打开了口子。
此后,OpenAI 开始和美国军方合作,据 WSJ 和 TechCrunch 的报道,合作内容涉及 AI 辅助决策系统,具体细节至今未完全披露。Kalinowski 的辞职,是把这件事推到台前的导火索。
更有意思的是,与 OpenAI 形成鲜明对比的,是它的竞争对手 Anthropic。
就在同一周,有另一条新闻几乎被人忽视了:Anthropic 被美国五角大楼列为"供应链风险",双方可能走向对簿公堂。
原因也很简单——Anthropic 拒绝取消对军事使用 AI 的安全限制。它的两条红线明确:禁止大规模监控,禁止自主武器。五角大楼不满意,直接甩出"供应链风险"的帽子。
同一周,一家 AI 公司向军方靠拢引发高管辞职,另一家 AI 公司因为坚守伦理底线被军方施压。两个剧情并排放在一起,戏剧感很强,但折射出的问题很真实。
用户为什么恐慌?
295% 的卸载量,说到底是一种情绪表达。
但这种情绪不是无理的。它背后有几个层次的逻辑。
第一层:数据安全的担忧。
你在 ChatGPT 里输入的内容——工作邮件草稿、会议纪要、竞争对手分析、客户信息——这些数据理论上都会被用来训练或优化模型。当这家公司开始和军事情报体系产生交集,你的数据流向就多了一个未知的变量。
这不是阴谋论,而是一个合理的信息安全问题。企业级用户尤其如此——很多公司的 IT 政策本来就明确要求"不得将敏感业务数据上传至境外 AI 服务",OpenAI 的这一步,让这个要求的执行变得更紧迫。
第二层:伦理代价的计算。
有人可能觉得:我只是用 ChatGPT 写写文章,跟军事有什么关系?
但有一个角度值得想一想:每个付费用户,都是在为这家公司的营收做贡献。而这家公司用这些收入,现在会做什么?
这个逻辑链条不复杂,但它会让一部分有道德洁癖的用户感到不舒服。当工具背后的公司做了你不认同的事,继续用,某种意义上也是一种支持。
第三层:不确定性带来的焦虑。
更根本的问题是:没人知道这条路会走多远。
今天是"AI 辅助决策系统",明天可能是自主武器的训练数据,后天可能是城市监控系统的算法底座。OpenAI 放开限制之后,边界在哪里,没有人给出清楚的答案。不确定性,往往比已知的风险更让人焦虑。
OpenAI 声称的安全红线
当然,事情也有另一面,需要平衡来看。
OpenAI 在协议中并非毫无约束。根据其已公开的说明,这份军事合作设有若干明确限制:模型仅限在云端 API 环境中调用,不向军方提供模型权重,不允许直接集成到武器控制系统;合作范围目前集中在后勤辅助、数据分析、网络安全等非作战场景;OpenAI 保留对使用行为的实时监控权,并可随时中止违规调用。
这些承诺能不能真正落地,是另一个问题。但它们的存在,意味着这不是一次无底线的交割。
Kalinowski 辞职时也承认,她的担忧更多指向"边界可能被进一步突破"的风险,而不是说现有协议已经越线。这个区别值得注意。
留还是走?一个理性决策框架
好,把情绪放一边,来做个理性的判断。
你是否应该停用 ChatGPT,取决于你的使用场景和风险承受度。下面这个框架,可以帮你快速定位。
普通职场用户
如果你只是用来提效——写邮件、整理思路、翻译文档、头脑风暴——实话说,替换成本不低,而直接收益也很难量化。
你需要思考的问题只有一个:你在 ChatGPT 里放了多少敏感信息?
如果一直都在遵守"不放公司内部数据"的基本原则,实际上你的风险敞口并不大。恐慌式删除不一定明智,冷静评估一下使用习惯更重要。
但如果你从来没想过这个问题,这是一个好机会认真想清楚。
IT 管理者和企业决策者
这个问题对你们更严肃。
企业数据合规不是选择题。如果你所在的公司有监管要求(金融、医疗、法律),或者有跨境数据传输的限制,OpenAI 与美国军方的关联,确实会给数据合规审计带来新的变量。
建议做三件事:
审查现有的 AI 使用规范,明确哪些数据类型禁止输入外部 AI 工具
评估现有工具的替代成本,不是要你立刻换,而是要知道你的备选方案
关注 OpenAI 的后续披露,目前合作细节不明,等信息更清晰再做决策并不晚
仓促迁移比什么都不做更危险——迁移过程本身就是数据泄露的高风险窗口。
有强烈伦理立场的用户
如果你的立场是:"我不想让自己的使用行为,哪怕间接地,支持军事 AI 应用"——那没什么好犹豫的,找替代品就好。
选择工具,从来也可以是一种价值观表达。
替代方案怎么选?
好,假设你决定换或者想做备份方案,主流替代品大概是这几个选项。
Claude(Anthropic)
优势: 就是这周"宁可被五角大楼封杀也不妥协"的那家公司。在 AI 伦理立场上,目前是主流模型里最透明、限制最明确的。模型能力强,长文本处理出色,写作质量普遍被认为高于 GPT-4o。
劣势: 工具生态比 OpenAI 弱,API 稳定性历史上有一些抱怨,免费版功能受限。
适合: 对数据伦理有要求的用户,或者主要用途是写作、分析的场景。
Gemini(Google)
优势: 和 Google 生态深度整合,有 Google Workspace 插件,多模态能力强(文本、图片、音频),免费版功能相对慷慨。
劣势: Google 自身的数据收集模式让一些用户同样有顾虑——你从 OpenAI 的担忧跑到 Google,并不一定走出了数据安全的问题域。
适合: 重度 Google 用户,日常用 Google Docs、Gmail 的职场人。
DeepSeek
优势: 国内公司出品,在中国合规场景下有独特优势,模型能力在开源社区评价很高,成本低。
劣势: 服务器在中国,数据存储受中国法律管辖——对于在香港或海外经营、需要考虑两边合规的企业,这同样需要认真评估。另外,作为新兴产品,企业级功能和 SLA 保障还在成熟中。
适合: 国内用户,或者已经在使用国产 AI 工具的企业。
本地化部署(Ollama + 开源模型)
优势: 数据完全不出本地,是数据安全问题的终极解法,适合对数据主权有极高要求的企业。
劣势: 需要 GPU 硬件支持,有一定技术门槛,开源模型的能力和 GPT-4o/Claude 3 系列有差距,维护成本不低。
适合: IT 能力强、数据安全要求极高的大型企业,或者有内部技术团队的公司。
最后,回到你自己
295% 的卸载量是一个集体情绪的截面,但每个删掉 APP 的人,理由都不一样。有恐慌,有原则,有随大流,也有真的做过深思熟虑的判断。
你的选择是哪一种?
真正的问题不是"OpenAI可不可信",而是"你有没有认真想过,你的数据值多少钱,你的使用习惯有没有达到基本的安全标准"。
不管你用哪家 AI 工具,有几件事是没有例外的:
不要把公司未公开的敏感数据输入任何外部 AI 服务 了解你所在地区的数据合规要求,AI 工具的使用要纳入这个框架里 不要因为一个工具换了另一个工具,就觉得问题解决了——数据安全意识才是根本
OpenAI 签了军事合同,这是一个事实。这个事实改变了什么,能改变什么,还没有全貌。但它确实是一个提醒:工具背后的公司在做什么,跟你有关系。
至于你的答案是什么,这一次需要你自己给出来。
本文由 HopeAI 团队出品
作者:HopeAI
素材来源:WSJ、TechCrunch(2026-03-08);OpenAI 官方声明;五角大楼通知文件
夜雨聆风