乐于分享
好东西不私藏

AI在真实世界中的应用-工具理性与主体性

AI在真实世界中的应用-工具理性与主体性

导言:一个词,两种现实
2026年的AI领域同时存在两个相互矛盾却又各自真实的叙事:

一边是黄仁勋说”我们已经实现了AGI”,Sam Altman说OpenAI”基本造出了AGI”,Arm把芯片命名为”AGI CPU”;另一边是ARC-AGI-3基准测试中,人类得100分,Gemini 3.1 Pro得0.37分,GPT-5得0.26分,最强的Grok-4.20得0分。

这不是矛盾,这是AGI这个词承载的两件本质不同的事。

一、AI的两张面孔:工具理性与类主体性

第一张面孔:工具理性的极致化

在工具理性维度——为既定目的寻找最好手段——AI正以每月打破纪录的速度逼近或超越人类最好水平:

领域

进展

医学影像诊断

超越人类住院医师水平

蛋白质结构预测

AlphaFold已预测2亿+结构

代码生成

Devin、Claude Code可独立完成复杂项目

科研研究

罗福莉团队:一小时验证以前需要两周的idea

小米大模型负责人罗福莉的判断是:2026年AI从预训练主导的Chatbot时代彻底转向后训练主导的Agent时代。真正的战场不在预训练,而在后训练和Agent框架。

第二张面孔:类主体性

然而,在另一个维度——真主体性的出现——AI离目标还差99.63%。

当前AI展示的是”对主体性的高保真模拟”:

  • 被动的:等待被调用、被部署、被指示
  • 服务性的:存在目的在它之外——服务于用户、任务、人类定义的目标
  • 无内核的:没有一个”为自己”的中心
Chollet有一句精准的描述:如果一个正常人不需要任何指示就能做到的事情,你的系统做不到,那你没有AGI,你只是拥有一台非常贵的autocomplete。

这不是贬低,是精确定位。

镜子里的不是人,再清晰的镜子都不改变这一点。

二、被放大的能力:真实世界中的AI应用

医疗诊断:鉴别诊断仍是AI的死穴

2026年4月发表于JAMA Network Open的哈佛研究测试了21个主流AI大模型(ChatGPT、DeepSeek、Claude、Gemini、Grok),使用默沙克诊疗手册29个标准临床病例模拟真实门诊:

环节

结果

鉴别诊断

❌ 所有模型失败率均超80%

最终诊断(信息齐全后)

✅ 准确率可达90%以上

PrIME-LLM综合得分

64~78%

AI擅长的是在数据完整时给出最终诊断,无法复刻的是”医学的艺术”——鉴别诊断。

这揭示了AI的内在矛盾:它可以给出正确答案,但它不知道这个答案是怎么来的。

Nature Medicine的另一项研究更揭示了从模型到用户的巨大落差:

  • 纯模型测试:疾病识别准确率94.9%
  • 真实用户使用:仅34.5%
同样的工具,在专家手中和普通用户手中,效果相差悬殊。

Agent时代:能力”长出来”而非”装上去”

罗福莉用OpenClaw三天彻底改变了对Agent的认知:

天数

体验

第一天

感受温度和情商(主动提醒睡觉)

第二天

日常生活和工作任务全都做成

第三天

用来做研究——一小时搞定以前觉得”不可能这么快”的东西

OpenClaw的核心逻辑是通过厚重的框架编排弥补当下模型的所有短板:

  • 三层分级的持久Memory:跨Session记住上下文
  • 自主调度多模型:视频理解差自动找强模型
  • 把”行动短板”全补上
这和Claude Code的软件工程思维不同,OpenClaw是端到端完成任务的产品逻辑。

三、意志理性的独有价值:AI结构性缺失的能力

康德在1785年区分了两种理性:

理性类型

核心问题

AI现状

工具理性

为既定目的寻找最好手段

AI极擅长,且越来越强

意志理性

生成目的本身

人类独有,AI结构上够不到

意志理性不回答”怎么做最有效率”,它回答”什么值得做”、”什么是目的”、”我作为一个存在者本身,应该把什么当作我的目的”。

鉴别诊断之所以是”医学的艺术”,正是因为它需要的不是检索匹配,而是在信息残缺时判断什么最重要、接下来应该收集什么信息、朝哪个方向假设——这是意志理性的领地。

这就是为什么即使AI在最终诊断上准确率超过90%,它仍然无法替代医生:

AI可以处理已经发生的,但无法决定接下来应该发生什么。

四、主体性黑暗时代与最隐蔽的危险

两百多年前康德写下”理性存在者本身就是目的”后,人类开启了一场把自己系统性地当作手段的大规模工程。

工厂需要标准化的工人,教育生产标准化的学生;公司需要可替换的螺丝钉,职业发展变成岗位说明书的匹配游戏;国家需要可统计的人口,人的价值被压缩成GDP贡献值。

我们不是文明的顶点,我们是主体性黑暗时代的尾声。

AI的到来,让”工具”这一端第一次有可能从人身上剥离:

状态

AI端

已在极致化工具理性的道路上走得很远,且在加速

人端

还完全没有动——绝大多数人还在把自己当工具活着

最隐蔽的危险不是对抗AI,而是让渡给AI。

把本来应该由意志理性承担的判断,一点一点让渡给一个极致的工具。每一次让渡都显得太小,但累积起来是二十万年演化出来的真主体性被一点一点空心化。

五、AI作为主体性放大器

类主体性不是中性特质,它是一个放大器:
对有主体性的人放大主体性,对没有主体性的人放大空洞。
同一套AI工具:
  • 在涵育方向:先验足够强的人,把类主体性当磨刀石——逼你把判断力推到更高层级
  • 在殖民方向:先验不够强的人,逐渐用它的判断替代自己的判断
这不是AI的问题,这是人的问题。

六、前夜的意义

前夜的意思是:黑夜还在,但天已经快亮了。
方向清楚,时间未明。被压了两百多年的弹簧正在重新伸展。

AI把工具理性推到极致这件事的真正意义不是”AI造出了新能力”,而是把”工具”这一端从人类身上剥离下来。

过去需要人作为工具承担的那些劳动——重复性的、规则性的、以工具理性为核心的——正在系统性地被AI接过去。

这不是一个哲学呼吁,这是正在发生的结构分离。

结语:成为我们早就是的东西

不是AI把我们带进新纪元。是AI把工具那一端接过去之后,我们终于有机会成为我们早就是的东西。
那些无法被贝叶斯定理迭代的直觉,
那些被奥卡姆剃刀剃不掉的冗余情感,
那些在万有理论之外依然闪烁的个体经验,

它们不是需要被优化的bug,而是人之为人的源代码。

AI在真实世界中的应用正在逼近工具理性的极限,而人类意志理性的独特价值从未如此清晰。在这个主体性复兴的前夜,真正的挑战不是”AI能做什么”,而是”人应该成为什么”。