一、一个正在发生的现实起点
刚刚完成换届之后,金投赏基金会进入了一个新的阶段。
在新的组织架构下,我们今年开始认真推进一件长期而基础的事情——建立长期捐赠基金。它的目标并不短期,也不功利:一方面支持中国在AI技术领域中的创新案例,另一方面推动商业创意与学术研究之间更深层的连接。
这件事情让我在来到 Yale School of Management 之后,有了更强烈的感受。
Yale University 的长期捐赠基金规模接近500亿美元,这不是一个简单的数字,而是一种制度的力量。它意味着一所组织可以脱离短期波动,在几十年甚至上百年的时间里,坚持其使命。
而这一切的背后,有一个常被忽视的结构:
捐赠者通过遗嘱设立信托,信托公司作为受托人(Trustee),而“保护人”(Protector)则负责监督规则不被扭曲。
换句话说——
保护人,是捐赠者意志在其身后的一种“延续机制”。
⸻
二、一个问题:如果保护人不再是“人”?
在过去,这个问题很简单:
保护人必须是一个自然人,或者一个法律主体。
但今天,这个前提开始动摇。
随着AI的发展,我们正在进入一个全新的阶段:
• 每个人的行为数据越来越完整
• 思考路径、判断偏好可以被长期记录
• 大模型可以不断逼近甚至模拟一个人的决策逻辑
• 智能体(Agent)开始具备持续执行复杂任务的能力
于是,一个原本属于哲学的问题,突然变成了一个制度问题:
如果一个捐赠者在生前,训练了一个完全代表其价值观与判断逻辑的AI智能体,这个智能体,是否可以成为其信托基金的“保护人”?
我和一些律师朋友交流过,当前的法律体系下,这是不被允许的。
因为法律默认一个前提:权利主体必须是“活着的人”或“合法实体”。
但问题在于:
当“意志”可以被数字化之后,法律所依赖的“人”的边界,是否仍然成立?
⸻
三、技术上,这件事情并不遥远
从技术角度看,这个问题并没有那么遥不可及。
一个“捐赠者智能体”的构建,大致可以具备以下几个要素:
1. 长期数据沉淀
包括其过往决策、捐赠偏好、风险态度、价值判断
2. 模型对齐(Alignment)
通过持续训练,使模型在关键决策上接近其本人
3. 决策边界设定
例如:哪些问题可以自主决策,哪些必须交由人类介入
4. 模型冻结(Freeze)
为避免未来偏移,可以将模型版本固化,不随大模型升级而变化
换句话说:
技术上,已经可以构建一个“不会衰老、不会情绪波动、持续稳定执行意志”的数字保护人。
甚至某种意义上,它比人更“忠诚”。
但也正是在这里,问题开始变得深刻。
⸻
四、哲学问题:意志的延续,还是意志的替代?
这个问题的核心,并不在技术,而在哲学。
我们可以从几个经典命题来理解:
1. “我是谁?”——人格同一性问题
哲学家 John Locke 曾提出:
人的同一性,不在于身体,而在于“记忆的连续性”。
如果一个AI智能体拥有你的全部记忆、决策逻辑和价值偏好,
那么它是否“就是你”?
如果答案是“是”,那么它成为保护人是合理的。
如果答案是“不是”,那么它只是一个工具。
但问题在于:
现实中,我们对“自己”的理解,本身也是不稳定的。
⸻
2. “意志是否可以被固化?”
我们通常认为,捐赠者的意志是神圣的。
但事实上,人本身是变化的:
• 年轻时重视增长
• 中年时重视安全
• 晚年时重视传承
那么:
一个被“冻结”的AI意志,是更忠实,还是更僵化?
换句话说:
它保护的,是“你最后的意志”,还是“你的一种可能状态”?
⸻
3. “信任从何而来?”
在传统结构中:
• 受托人(Trustee)承担执行责任
• 保护人(Protector)承担监督责任
• 法律体系提供最终约束
而AI保护人的引入,会改变信任结构:
传统模式 AI模式
信任“人” 信任“模型”
信任“道德” 信任“算法”
信任“关系” 信任“数据”
但一个根本问题是:
我们是否准备好,把“最终信任”,交给一个不可解释的系统?
⸻
五、制度冲击:非营利组织的“长存逻辑”会被重写
如果AI保护人被允许,整个非营利体系将发生结构性变化:
1. 捐赠将更“长期化”
因为捐赠者不再担心意志被扭曲
AI可以持续监督几十年甚至上百年
2. 基金会将更“规则化”
AI倾向于执行规则,而非关系
这会降低人为干预,但也可能降低灵活性
3. 权力将从“组织”转向“算法”
过去,董事会是核心
未来,可能是“模型参数”
这是一种非常微妙但深刻的转移:
从“治理人”,到“治理逻辑”。
⸻
六、但真正的问题,可能不是AI,而是我们自己
这段时间,世界变化得非常快。
我个人在AI工具上的Token消费,已经每周超过100美元,
很可能在今年上半年就会达到每月1000美元。
这背后不是消费的问题,而是一个更深层的现实:
我们正在越来越多地,把自己的思考外包给系统。
那么,当我们讨论“AI是否可以成为保护人”时,
其实是在面对一个更本质的问题:
人,是否正在逐步放弃成为“最终决策者”?
⸻
七、回到起点:什么是“人的不可替代性”?
如果AI可以:
• 复现你的判断
• 执行你的意志
• 监督你的组织
那么,人还剩下什么?
我越来越觉得,一个可能的答案是:
人的价值,不在于“做出正确决策”,而在于“承担不确定性”。
AI可以最优,但不能“承担”。
AI可以一致,但不能“后悔”。
AI可以稳定,但不能“改变信念”。
而恰恰是这些,构成了人类文明的张力。
⸻
八、一个开放的结尾
未来某一天,也许真的会出现这样一份遗嘱:
“在我去世之后,由我的AI智能体,作为本基金的保护人。”
那一天到来时,世界不会突然改变。
但有一件事情会悄然发生:
人类第一次,把“意志的终极解释权”,交给了自己创造的系统。
这并不可怕,但值得警惕。
因为最终的问题,从来不是:
AI能不能取代人,
而是:
我们是否还愿意,成为那个需要被取代的人。
⸻
在这样一个加速的时代,
真正稀缺的,也许不是效率,而是从容。
不是能力,而是边界。
不是智能,而是——
对“人之为人”的坚定理解与自信。
夜雨聆风