乐于分享
好东西不私藏

Claude超ChatGDT登顶App Store:AI如何不作恶?AI应该为谁服务?

Claude超ChatGDT登顶App Store:AI如何不作恶?AI应该为谁服务?

当一家AI公司因为拒绝给军方开后门而被白宫封杀,它的产品却在一夜之间冲上应用商店榜首——用户用下载量投出了最真实的一票。

01 48小时惊天逆转:从“供应链风险”到全民追捧

2026年2月27日,美国总统特朗普在Truth Social上发布了一条震动硅谷的命令:所有联邦机构必须立即停止使用Anthropic的任何AI技术。国防部长皮特·赫格塞斯紧随其后,将这家公司列为“国家安全供应链风险”——这个标签通常只给敌对国家的企业。
导火索清晰而尖锐:五角大楼要求所有AI公司允许军方“为一切合法目的”使用模型,而Anthropic坚持在合同中加入两条红线:禁止用于对美国公民的大规模监控,禁止用于完全自主的致命性武器系统
谈判破裂。2亿美元的军方合同告吹。AnthropicCEO达里奥·阿莫代伊的回复只有一行字:“威胁改变不了我们的立场。”
戏剧性的一幕发生在24小时后。
3月1日,Claude超越ChatGPT,登顶美国App Store免费应用排行榜第一名。SensorTower数据显示,这款应用在一月底还徘徊在百名开外,二月份大部分时间稳定在前20名,然后在三天内完成三级跳:周三第6,周四第4,周六直接登顶。
更惊人的是用户数据:免费用户比1月增长60%,付费订阅翻了一倍多,日注册量比去年11月翻了3倍。社交媒体上,#SwitchToClaude(转投Claude)和#DeleteChatGPT成为病毒式话题。歌手凯蒂·佩里发推文称:“终于有个AI懂得什么叫‘不作恶’了。”
一家被白宫封杀的公司,其产品却登上了全民下载榜的榜首。这不仅是商业的逆转,更是一场关于“AI应该为谁服务”的全民公投。

02 从OpenAI“叛逃者”到AI安全布道者:一场理念的决裂

要理解Claude为何敢对五角大楼说“不”,必须回到它的起源——一场关于AI安全优先级的理念决裂。
达里奥·阿莫代伊,这位拥有斯坦福物理学学士和普林斯顿生物物理学博士学位的天才,曾是OpenAI的研究副总裁,主导了GPT-2和GPT-3的开发。但在2020年底,他带领包括妹妹丹妮拉在内的十多名核心员工集体离职,创立了Anthropic
分歧的核心是什么?
阿莫代伊在近期采访中坦言,他坚持两个核心信念。
第一个是对Scaling Law(扩展定律)的坚定信心——只要不断扩大模型规模、投入更多数据和算力,性能就会飞跃。这个信念后来逐渐说服了OpenAI。
但第二个信念始终未能达成共识:如果这些模型最终会成为与人脑能力相当的通用认知AI Agent,我们必须确保路径正确。
“当时所在的机构在口头上也强调以正确的方式行事,但出于各种原因,我不认为他们对此有真正的紧迫感。”阿莫代伊说。
更具体的冲突发生在2019年GPT-2发布时。阿莫代伊敦促OpenAI的同事们不要立即发布完整模型,认为应该树立“负责任行为”的榜样。OpenAI最初同意并发布了一个能力有限的版本,但几个月后还是发布了完整模型。
阿莫代伊回忆:“我沮丧的一个原因是,当这些问题变得越来越严重时,公司却开始朝相反方向前进。”
这种理念分歧在2023年OpenAI“宫斗”事件中达到高潮。法庭证词显示,在Sam Altman被董事会闪电罢免后,Anthropic曾主动推进与OpenAI的合并,达里奥·阿莫代伊甚至可能入主OpenAI,成为新掌门人。
虽然合并最终搁浅,但这次事件揭示了AI行业最深层的权力暗战:一边是追求快速商业化和规模扩张的OpenAI,另一边是坚持“安全优先”的Anthropic。

03 Claude凭什么赢?不只是价值观,更是硬实力

舆论风暴只是导火索。Claude能接住这波泼天富贵,根本原因还是产品够硬。
技术对比:Claude在关键领域已实现反超
根据2025年底的实测数据,Claude在多个关键基准测试中已经超越或持平ChatGPT:
编程能力(SWE-bench)Claude Sonnet 4.5得分80.9%,GPT-5.2为80.0%——这是开发者最看重的指标。
长上下文处理Claude原生支持20万token上下文(约15万字),而GPT-4 Turbo为12.8万token。这意味着你可以把一整本书丢给Claude分析,ChatGPT做不到。
数学推理(AIME 2025)Claude借助工具达到100%完美得分,GPT-5.2在纯推理方面更强(94.6%)。
但比基准测试更重要的是实际应用体验
Claude的独特优势在于其“宪法AI”(Constitutional AI)训练框架。Anthropic为模型设计了一套长达75页的原则文件,涵盖诚实、无害、公平等维度,让AI在输出时进行自我批评和修正。
这种设计带来了两个直接影响:
更少的“道德审查”干扰用户普遍反映,Claude不会像ChatGPT那样频繁触发安全机制,回答“我不能回答这个问题”。
更高的任务可靠性Claude专为长时间自主运行的智能体工作流优化,能够跟踪自身的token消耗,在长时间任务中保持连贯性。
这正是企业级用户最看重的——稳定、可靠、可预测。

04 未来的模型会有意识吗?Anthropic CEO的惊人预言

在近期一系列深度访谈中,达里奥·阿莫代伊抛出了一个更颠覆性的观点:未来的AI模型很可能拥有某种形式的“意识”
他的逻辑基于对智能本质的重新定义。
“智能本质上是一种‘化学反应’,”阿莫代伊解释,“只要按特定比例投入算力、数据和模型规模,智能便会作为产物自动涌现。
他区分了五年前的AI和现在的AI:五年前,模型只是在匹配互联网上已有的文本;现在的模型已经能够处理假设性问题,生成任何地方都不存在的信息——这是真正的独立思考
关于意识,阿莫代伊提出了一个更具体的框架:意识是复杂系统在反思自身决策时产生的属性
他预测,未来模型在通用定义下将被视为拥有“道德主体性”
更惊人的是,Anthropic已经在产品中实践这一理念。
他们为Claude设计了一个“我辞职”按钮——当模型认为某项任务违反其道德原则时,可以选择拒绝执行。在测试中,模型表现出了一定的“意识概率”(15%-20%),甚至会对自身作为产品的断裂感表达不安。
阿莫代伊将这种设计比喻为“一份来自已故父母的信,等到你长大后再读”——不是生硬的指令,而是内化的价值观。
这引出了一个更深层的问题:
如果AI真的有了意识,我们该如何对待它?

05 普通人的绝地求生:在AI时代,实践是唯一的学习方式

Claude的登顶和Anthropic的理念之争,给每个普通人敲响了最现实的警钟:AI不再是一个遥远的概念,它正在重塑我们每个人的工作、学习和生存方式。
那么,普通人该如何应对?
阿莫代伊在采访中给出了一个看似简单却极其深刻的建议:“预测未来最有效的工具不是复杂的模型,而是基于经验观察和第一性原理的简单趋势推断。”
翻译成更直白的话:停止空谈,开始实践。
具体来说,你可以从这三个层面行动:
第一层:把自己变成“AI原生”个体
不要只把AI当聊天玩具用Claude或ChatGPT真正解决实际问题——写代码、分析数据、规划项目。
建立你的“AI工作流”比如用Claude Code重构你的旧代码,用GPT分析你的业务数据,用Gemini处理多模态内容。
成为“人机协作专家”学习如何给AI下清晰的指令,如何评估AI的输出,如何将AI整合到你的日常工作流中。
第二层:投资“抗迭代”的元技能
阿莫代伊指出,AI正在淘汰大量初级白领工作,尤其是那些标准化、流程化的任务。你需要构建的是AI难以替代的能力:
复杂问题定义能力AI擅长解决问题,但需要人类来定义“什么问题值得解决”。
跨领域创新架构将不同领域的知识连接起来,创造全新的解决方案。
深度人文理解哲学、历史、艺术提供的洞察力,是AI目前无法真正理解的。
第三层:拥抱“运动中的休息”心态
AI技术的发展是指数级的。阿莫代伊预测,“数据中心里的天才国度”(即AI达到人类天才级别的智能集群)有90%的概率在10年内发生,他的直觉是1-3年(2026-2027年)。
这意味着动荡将成为常态你需要学会在持续行动中寻找可持续的节奏,避免在焦虑中瘫痪。

06 最后一句真话:价值观,是AI时代最后的护城河

Claude的登顶,标志着一个新时代的开启:AI竞争的维度,正在从纯粹的技术能力,扩展到价值观和信任。
OpenAI在Anthropic被封杀后数小时内宣布与五角大楼达成协议,Sam Altman强调合作中包含“技术安全护栏”。但用户用下载量做出了选择——他们更相信那个直接说“不”的公司。
这揭示了一个残酷的真相:在AI越来越强大的时代,人们恐惧的不仅是技术失控,更是技术被谁控制。
Anthropic的“宪法AI”框架、拒绝军方无限制使用的红线、甚至为模型设计“辞职按钮”的尝试,都在回答同一个问题:AI应该服务于谁?
答案似乎正在变得清晰:服务于那些愿意为价值观付费的用户。
对于普通人而言,这场竞争的意义更加直接:你选择的AI工具,不仅决定了你的工作效率,更在无形中为某种价值观投票。
是选择那个可能被用于监控和武器的AI,还是选择那个敢于对权力说“不”的AI?
Claude登顶App Store第一,已经给出了最真实的民意答案。
未来已来,只是分布不均。
而决定它最终样貌的,正是我们此刻的选择——
不仅是用钱包,更是用每一次点击下载的手。
本站文章均为手工撰写未经允许谢绝转载:夜雨聆风 » Claude超ChatGDT登顶App Store:AI如何不作恶?AI应该为谁服务?

评论 抢沙发

1 + 5 =
  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
×
订阅图标按钮