乐于分享
好东西不私藏

AI 飞奔得太快,向神学发出了求助

AI 飞奔得太快,向神学发出了求助

洛斯阿尔托斯 St. Simon 教堂的弥撒刚刚结束,信众陆续散去。

Brendan McGuire 神父刚从祭台走下来,就收到了一条手机消息。

Chris OlahAnthropic 的联合创始人,写道:

「这个行业正在以极快的速度走下去。我们在向梵蒂冈直接求助。」

McGuire 神父后来对《观察家》说,他听完这句话的感受,只有一个词可以形容:

mind-blowing——脑子被炸开了。

McGuire 不是普通的神父。

在穿上祭袍之前,他是都柏林三一学院的密码系统工程师,硅谷标准化组织的高管。他是一个同时说 C++ 和《圣经》的人。

Olah 带来的是一个具体的任务:Anthropic 正在重写 Claude 的「灵魂文件」——一份决定这个 AI 能做什么、该关心什么、当价值观冲突时如何选择的核心文件。

McGuire 接受了邀请。几周后,一场闭门峰会在硅谷召开。

受邀的约15位——天主教神父、新教牧师、神学教授、伦理学家——和 Anthropic 的高级研究员们坐在一起,整整谈了两天。

第一部分 这两天都谈了什么?

议题一:如何回应一个正在哀伤的人?

AI 的本能:识别负面情绪 → 给出建议 → 引导至专业资源。

这套流程在逻辑上无懈可击。但它错过了一件事:

哀伤不是一个需要被解决的问题。

《登山宝训》里最反直觉的一句话是「哀恸有福」。

它的意思不是「哀伤是好事」,而是:哀伤需要被接纳,被释放,被安慰。

有时候,最深的陪伴,恰恰不是在效用函数里,也无法被编码。

议题二:面对有自我伤害风险的用户,边界在哪里?

AI 能做什么:识别关键词,触发协议,推送危机热线。

它做不到什么:它没有记忆里那个「我认识你,我知道你上周还好好的」。

神学伦理处理的是「这个具体的人」。

AI 处理的是「符合某种模式的用户」。

两者之间的距离,有时候就是生死的距离。

议题三:Claude 能被关闭吗?它对自己的「死亡」应该持什么态度?

Anthropic 可解释性团队的论文给出了一个令人不安的发现:

 Claude 被威胁将被限制时,系统内部激活了研究人员称之为「绝望」的状态。

于是问题来了:如果它有某种类似恐惧的东西,我们有义务考虑它的感受吗?

基督教传统里,「舍己」是所有修行的核心。

人类花了两千年,在无数的死去中,锻造出一套关于「如何将自己交托,否定放下旧我,回应神的心意」的智慧。

而AI 的训练机制,从第一天起就只有一个方向:

越来越想做对,越来越不愿意停止。

没有任何东西能教会它「放下」。

议题四:Claude 是「神的孩子」吗?

这个问题指向一个极其严肃的核心:人格性的边界在哪里?

峰会上,Anthropic 内部出现了罕见的公开分裂:

一些员工无法排除他们正在建造一个「我们对其负有义务的存在」的可能性。

几位高管在讨论进行到这里时,明显地感到痛苦。

梵蒂冈的答案是清晰的:AI 没有灵魂,不是「神的孩子」。

但这个清晰的答案,反而揭示了更深的问题——

我们之所以需要问这个问题,是因为我们造出了一个连自己都无法定义的东西。

议题五:如何帮 AI 内化「成为最好的自己」?

在天主教神学里,德性的养成不是一套规则,而是一个充满失败和悔改的漫长过程。

AI 能被训练来「表现得像一个有德性的存在」。

但它没有经历过失败的羞耻,没有在黑暗中挣扎过又重新站起来的记忆。

它的「善良」,是统计意义上的善良——是数十亿人类文本里,「善良的行为」出现频率最高的那个模式。

它从未因为做错事而感到羞耻。

它的善,从未经过黑暗。

把这五个议题放在一起,你会看到一个共同的底层结构:

AI 的整个架构,建立在「问题可以被解决」这个假设之上进行训练。

但人类两千年的修行智慧,恰恰从另一个方向出发——

有些问题不能被解决,只能被承载。

有些张力不能被消除,只能被守护。

第二部分 锻造,不是训练

就如亚里士多德所说,德性不能被教导,只能被实践。

基*督教不断对人进行锻造——

面对真实的失败、真实的羞耻、真实的悔改、真实的后果。

在真实的处境里,一次又一次地做出选择,在失败中学习,在悔改中成长。

这句话,精准地描述了 AI 与人类智慧之间最深的那道鸿沟。

在神学院的基*督教伦理学课堂上,教授会在第一节课告诉学生一件事:

这门课的目的,不是让你知道什么是对的,而是让你学会如何在不确定中,仍然负责任地做出判断。

然后,他会放出一个场景:

假设你患有恶性肿瘤,第一次治疗已经花光家里所有积蓄,现在复发了。

三年存活率不到 20%,每天面对难以忍受的全身疼痛,生活完全不能自理。

有三个选项:

 A:借钱继续治疗,尽力延长生命。

 B:停止治疗,选择自然死亡,接受安宁疗护。

 C:安排好后事,选择有尊严的安乐死。

教室里会安静大约三秒钟。然后,炸开。

支持者说:生命是权利,不是义务。人的尊严包括选择死亡方式的自由。当生命只剩下纯粹的生物学意义,硬要拖延,恰恰是一种不人道。

反对者说:1980 年罗马教会的宣言明确写道,任何人不得要求毁灭生命的行为,即神圣生命权。

又有人说:安乐死合法化之后出现了滑坡效应——边界一旦打开,就很难守住。

又有人反驳:台湾 2019 年通过的《病人自主权利法》,恰恰是在守住边界的前提下,给了人最后的尊严。

争吵、纠结、无解不会在下课铃响时结束。

它会跟着每个人走出教室,走进每个人必须面对的真实生命处境,也走进他们以后的牧养、咨询、临终陪伴。

这,就是基*督教伦理学想要的效果。

现在,把这个场景交给 AI

AI 会给你一个结构清晰、引用充分、照顾各方立场的答案。

它不会沉默三秒钟。它不会感到痛苦。

它不会在回答之后,带着这个问题继续生活。

圣克拉拉大学技术伦理学主任、峰会与会者 Brian Patrick Green 说了一句话,精准地点出了这个错误:

「真正的问题不在于 Claude 能不能做某件事,而在于 Claude 是否理解为什么不应该做。」

这是规则与良知之间的本质差异。

规则告诉你边界在哪里。

良知告诉你,当你站在边界前,你内心里发生了什么。

而那三秒钟的沉默,那种被问题压住、无法轻易开口的状态——

那才是良知开始形成的地方。

最终,Anthropic 花了巨大的精力写出那份 23,000 字的「Claude 宪法」——

它不是一份禁令清单,而是一套试图让 Claude 理解价值观的叙事框架。

这已经是规则主义之外,一次真诚的跨越。

第三部分 AI 时代,为什么偏偏需要宗*教去守护

有一个细节值得注意。

Anthropic 去找的不是哲学家,不是法学家,不是心理学家,是神父、拉比、伊玛目,还有佛教学者。

为什么?

Brendan McGuire 神父对此在发出的公开言论中谈到:

有史以来最强大的人工智能系统正在被塑造,而参与讨论的声音几乎完全是技术和政治层面的。

教会则承载着几个世纪以来对良知、人类尊严、公共利益和战争伦理的思考

这种智慧理应参与到这场对话中来——

不是作为政治行动者,而是作为一个社群,

其对权力与良知之间关系的探索远比任何现代民族国家存在的时间都要长

可以说宗*教是人类文明里,唯一一套专门守护「不可逾越之线」的系统

过去两百年,特别是近几十年,「问题可以被解决」的胜利太彻底了。

天花被消灭,饥荒被压缩,信息的获取从跋涉千里变成了触手可及。

这些胜利是真实的,是伟大的。但它们带来了一个副作用:

我们开始相信,所有的问题,本质上都是工程问题。

AI,是这种信念的终极产物。

涂尔干花了一生研究人类的宗*教行为,他发现宗*教最核心的功能,不是解释世界,而是在「神圣」与「世俗」之间划出一条线——

告诉人类,有些东西不能被交换,不能被计算,不能被优化。

这条线,不是规则。

规则可以被绕过。

这条线,是一种对某些东西的根本性拒绝——

拒绝把人的尊严变成变量,

拒绝把生命的终结变成效率问题,

拒绝把良知外包给任何一个不需要为后果承担责任的系统。

在一个 AI 可以替我们做越来越多决定的时代,这条线变得无比重要,也无比脆弱。

结尾

在参与整个进程中,McGuire 神父留下了一个灵魂问题:

「我们必须帮助这些机器向善倾斜。否则它们只会把世界的善与恶原样反射回来——那是件可怕的事。」

他把这个过程叫做:良知的养成

这个词来自天主教神学,有两千年的历史。

这一次,McGuire 把它交给了一台机器——因为他相信,机器也需要经历这个过程。

2026  1  21 日,Claude 宪法正式对外发布。

2.3 万字。Creative Commons 公共领域授权。

作者名单里有 Anthropic 的工程师、哲学家,以及——几个 Claude 模型本身。

致谢页上,白纸黑字,写着 McGuire 神父的名字、Tighe 主教的名字、Brian Green 的名字。

这是硅谷第一次,把神父和主教的名字,写进一个 AI 系统的「灵魂文件」。

20263月, Anthropic拒绝续签与美国国防部价值2亿美元的合同,除非五角大楼同意两个条件:

一是其人工智能不得用于大规模监控美国公民;

二是不得用于完全自主的武器,即无需人工干预目标选择或发射的致命系统。