
撰文| 王思易
编辑|张 南
设计|荆 芥
题图| AI
2月24日,国防部长皮特·赫格塞斯(Peter Brian Hegseth)在五角大楼约见了Anthropic首席执行官达里奥·阿莫代伊(Dario Amodei),告诉他:要么放弃你那些碍手碍脚的AI安全限制,要么到周五下午五点零一分之前(注意那一分钟的精确,一种军事化的精确),我们就把你公司列为“供应链威胁”,然后援引《国防生产法》(DPA)强行接管你的模型。
也是在同一天,就在这次会面之后,Anthropic悄悄更新了其《负责任扩展政策》,废除了该公司自2023年以来最核心的安全承诺:如果无法保证足够的安全护栏,停止训练并拒绝部署更强大的AI系统。
这两件事完全无关,Anthropic方面的消息人士如是说。
确实没有相关性,27日,特朗普在Truth Social发文,下令所有联邦机构立即停止使用Anthropic技术,并给予国防部等6个月过渡期。赫格塞斯随后宣布Anthropic为“供应链风险”,禁止任何军方承包商、供应商或合作伙伴与Anthropic开展商业活动,立即生效。
当日晚,赫格塞斯和OpenAI首席执行官山姆·奥特曼(Sam Altman)同时官宣OpenAI已经和美国战争部达成协议,把OpenAI的模型部署到后者的机密网络中。
Anthropic即便在道德上做了妥协,还是丢了生意。
要理解这场溃败的意义,必须先理解Anthropic究竟是一家什么公司,或者说,它曾经自以为是一家什么公司。
它诞生于2021年,脱胎于一次带着道德色彩的分裂,一群OpenAI的研究人员,据说对这家公司的安全承诺失去了信心,于是携手出走,创立了一家“真正”将安全置于首位的机构。
这个故事的浪漫版本已经被讲述了无数次:达里奥把自己描绘成一个2022年夏天面对强大AI模型犹豫不决、最终选择不发布的男人,而OpenAI则紧随其后发布了ChatGPT,席卷全世界。他甘愿错失先机,只为那一点良知。
但资金来自哪里?最初的投资人名单里赫然出现了山姆·班克曼-弗里德(Sam Bankman-Fried)的名字——是的,就是后来被判联邦欺诈罪的那位FTX创始人,有效利他主义运动最引人注目的明星捐赠人。
Anthropic从那场波及无数人的骗局里拿走了五亿美元。
这里需要停下来讲一讲有效利他主义。
有效利他主义者将自己与一般利他主义区分开来。一般利他主义注重施予者的善意,而较不注重施予后的成效。有效利他主义探讨各种改善社会的方式,不仅是一般设想的通过公益捐赠,而更从生活的各个层面,各种职业的角度,去思考如何最大化每个人能给这社会带来的正向改变。
在现在的旧金山,有效利他主义和理性主义是可以互换的词语,事实上它们在湾区的知识分子圈子里确实高度交叠,对他们来说:世界的运作原则是可以被理性计算和优化的,道德问题与工程问题本质上没有区别,最重要的事情是从现在起一百年、一千年之后的宇宙总福祉。
LessWrong论坛是这个群体的精神家园,在那里人们用贝叶斯概率讨论末日风险,用功利主义函数计算最优捐款对象,用“对齐问题”取代“何为善”这样古老而无聊的追问。
Anthropic正是在这片土壤上生长出来的。其早期员工中有相当数量持有GWWC(Giving What We Can)捐献誓言,达里奥自己是第43位签署者。这个口号源自马克思在《哥达纲领批判》提出之口号:“各尽所能,各取所需。”
Anthropic的联席主席霍尔顿·卡诺夫斯基(Holden Karnofsky)是Open Philanthropy的联合创始人——Open Philanthropy正是有效利他主义慈善界最大的资金池——而他同时也是丹妮拉·阿莫迪(Daniela Amodei)——达里奥的姐姐,Anthropic总裁——的丈夫,并于2025年1月正式加入Anthropic。
有效利他主义/理性主义群体相信,AI可能是人类历史上最危险的技术,有可能导致文明终结乃至物种灭绝——同时也相信,自己必须是建造它的人。
逻辑是这样的:如果超级智能的到来是必然的,那么最好由有正确价值观的人来掌控它。
这被称为“如果我们不做,更坏的人会做”的论证方式,在科技行业已经泛滥成灾,它可以为任何事情的继续提供道德豁免。达里奥估计AI导致人类灭绝的概率高达25%,但他仍然继续。
在2026年2月27日之前,Claude是目前唯一被授权用于军方最高机密级别工作的AI模型。
Anthropic通过与大数据分析公司Palantir的合作关系,向美国军方提供服务。今年早些时候,据报道美军在对委内瑞拉前总统尼古拉斯·马杜罗的突袭行动中使用了克劳德。
随后Anthropic向Palantir询问其模型在此次行动中的具体使用情况,Palantir将这个询问原封不动地汇报给了五角大楼。军方的解读是:这家公司想要干涉我们的军事行动,想要审查我们如何使用它们的工具。
赫格塞斯在那次会面中据报道直接告诉达里奥:“我不会让任何公司来左右五角大楼如何做决定,或者对具体的使用案例提出异议。”
五角大楼的首席发言人肖恩·帕内尔(Sean Parnell)随即在社交媒体上宣布,Anthropic必须在周五下午五点零一分之前决定是否允许军方“基于所有合法目的”不受限制地使用其模型——五点零一分。国防部副部长埃米尔·迈克尔(Emil Michael)则在X上发文攻击达里奥,指控他“有上帝情结”,“想要亲自掌控美国军队”。
与此同时,马斯克的xAI已经与五角大楼达成协议,允许军方将其模型用于机密系统。波音和洛克希德·马丁接到评估请求,要求它们报告自身业务对Anthropic产品的“暴露程度”——这通常是一家美国公司按照对待外国敌对企业的方式处理的第一步。
也就是在这一天,Anthropic更新了政策。
Anthropic的官方解释是,这一政策变更与五角大楼的压力毫无关联。其首席科学官贾里德·卡普兰(Jared Kaplan)告诉《时代》杂志,变更的原因恰恰是出于对安全的更深层次考虑——既然竞争对手们无论如何都会继续推进,Anthropic的单边停止承诺不会帮助任何人。公司的声明则写道,政策环境已经“转向优先考虑AI竞争力和经济增长,而安全导向的讨论在联邦层面尚未获得有意义的进展”。
翻译成人话就是:特朗普政府上台后,我们推动的那套监管体系已经灰飞烟灭,我们的护栏只是约束了我们自己,所以我们撤销护栏。
当国家权力说“不,是我们来划定边界”,护栏便失去了它全部的意义基础。
理性主义者最擅长的事情是建构解释,用来让任何结果都显得早在预料之中。我们可以期待,接下来几周里将会出现若干篇精心论证的博客文章,证明这一切都是最大化长期期望效用的正确决策,都是为了让真正重要的安全研究能够继续进行下去。
即便如此,Antropic还是输了。
去年九月,OpenAI总裁格雷格·布罗克曼(Greg Brockman)和他的妻子向MAGA Inc.——特朗普超级政治行动委员会——捐款2500万美元,是该委员会单笔最大捐款,占其当期融资总额的近四分之一。
布罗克曼本人在社交媒体上解释说,这笔钱旨在“支持推进美国创新的政策”,并强调“支持AI不意味着反对监管,而是意味着深思熟虑地制定政策”。这句话令人叹为观止,证明写下它的人真正学会了好像说了什么但实际上什么都没说。
与此同时,Anthropic宣布向Public First Action超级政治行动委员会捐款2000万美元。这是一个倡导AI监管的跨党派团体。据报道此举部分出于阻止OpenAI“积累过多政治影响力”的考量。特朗普政府的AI专员大卫·萨克斯(David O. Sacks)随即将去年各州掀起的AI监管热潮归咎于Anthropic。
这是两份政治押注,在今天得到了清算:OpenAI的2500万美元买来了一份五角大楼的合同,Anthropic的2000万美元买来了一个“国家安全威胁”的标签。
至于Anthropic的有效利他主义是不是一个伪善的口号,可能我们永远都不能知道了。





点击阅读原文报名
▼
夜雨聆风