Claude 从第 42 名冲到 App Store 第一:用户正在用下载量投票
周五,特朗普签了禁令,要求联邦政府全面停用 Anthropic 的 Claude。国防部(现在叫”战争部”了)部长 Hegseth 更狠,直接把 Anthropic 列为”国家安全供应链风险”,禁止所有军方承包商跟 Anthropic 做生意。
结果周末发生了一件谁也没想到的事:Claude 从 App Store 第 42 名,直接冲到了第一名。
ChatGPT 第二,Gemini 第三。AI 三巨头霸占了下载榜前三,但这一次,用户选择站在 Anthropic 这边。
到底在吵什么?
事情要从 Anthropic 拒绝的两件事说起。
五角大楼想让 Claude 做两件事:一是用在全自主武器系统里,二是搞大规模国内监控。
Anthropic 说不行,理由很直接:
第一,我们不认为今天的前沿 AI 模型足够可靠到可以用在全自主武器上。让当前的模型做这件事,会危及美军士兵和平民的生命。
第二,我们认为对美国公民的大规模国内监控,构成对基本权利的侵犯。
翻译成人话就是:技术还没到那个水平,而且这事儿不对。
这在硅谷可太罕见了。科技公司通常的做法是”先接单再说”,或者像 OpenAI 那样,签完军方合同再慢慢调整政策。
讽刺的是:禁了还在用
但最魔幻的部分还在后面。
就在特朗普宣布禁令的几个小时之后,美军对伊朗发动了空袭。据《华尔街日报》报道,这次空袭的情报评估和目标识别,用的恰恰是 Claude。
你没看错——前脚刚禁,后脚就用。
这大概是 2026 年最荒诞的科技新闻了。它说明了一件事:Claude 在军方的情报分析场景里,已经深度嵌入到不可替代的程度。禁令是政治姿态,实际操作还得靠它。
用户为什么站 Anthropic?
Claude 冲到 App Store 第一,不是因为发了什么新功能,不是因为降价促销。纯粹是因为用户认同 Anthropic 的立场。
这件事有意思的地方在于:在 AI 竞赛白热化的当下,一家公司因为”说不”而获得了更多用户。
过去几年,科技公司给我们的印象是”增长至上”。为了用户数、为了合同金额、为了市值,可以做任何妥协。但 Anthropic 这次展示了一种不同的可能:有底线,反而更有吸引力。
一位前特朗普 AI 政策顾问 Dean Ball 在 X 上直接说,把 Anthropic 列为供应链风险,无异于”企图谋杀一家公司”。这话虽然激烈,但说明连体制内的人都觉得这事做得过了。
对我们普通用户意味着什么?
你可能觉得,军方用不用 AI 做武器,跟我有什么关系?
关系很大。
AI 公司的伦理底线,直接决定了你手里的工具会变成什么样子。一个愿意给全自主武器供技术的公司,你觉得它会在乎你的隐私吗?一个把大规模监控当正常生意的公司,你敢把数据交给它吗?
Anthropic 不一定是完美的公司,但至少在这一刻,它做了正确的选择。而用户的下载量告诉我们:市场不只认钱,也认价值观。
聊点实际的
说到 AI 工具的实际使用,最近 OpenAI 的 Codex CLI 也挺火的——一个终端里直接跑的 AI 编程助手,写代码、改 bug、做重构都行。
如果你也想体验 AI 辅助编程,这里送一个免费的 Codex API 额度:
🎁 免费 Codex 使用配置:
打开 Codex CLI 的配置文件 ~/.codex/config.toml,加入以下内容:
model_provider = "husanai"
[model_providers.husanai]
name = "husanai"
base_url = "https://husanai.com/v1"
wire_api = "responses"
requires_openai_auth = true
然后设置环境变量(加到 ~/.zshrc 或 ~/.bashrc):
export OPENAI_API_KEY="sk-7XrdoapRDLp8jHwmFw9fyom05KQ9ZwwGfb0ZPJA4BQPbyv5f"
保存后 source ~/.zshrc,就可以直接用 codex 命令了。
总额度 $10,000,先到先得,用完即止。
回到 Anthropic 这件事。特朗普前顾问说得对,这是一场关于 AI 未来走向的战争。不是技术之争,是价值观之争。
Claude 登顶 App Store 的那一刻,用户已经投了票。
你站哪边?
夜雨聆风
