AI时代,科学家会变成鹦鹉饲养员吗?——关于科学认知主权的宣言
第一节 一个科学家的早晨(2029)
清晨六点十七分,深圳某生物医药实验室的灯光尚未全亮。林博士坐在工作站前,盯着屏幕上一条平滑得近乎可疑的自由能曲线。
过去八小时,她的AI协作者“雅典娜”完成了她原本需要一年才能做完的工作:对三千种候选分子与靶点蛋白的结合强度进行高精度量子力学-分子动力学联合模拟,并自动筛选出最优五种。
结果完美得令人不安。没有异常值,没有边缘案例,没有那种在真实实验中总会冒出来的、让人皱眉又着迷的“奇怪数据点”。一切都在误差带内,逻辑自洽,可直接用于下一轮动物实验申报。
林博士的手指悬在键盘上方,却迟迟没有按下“确认提交”。
她不是怀疑结果——AI的计算精度远超人类。她只是突然意识到:自己已经很久没有亲手调过一次力场参数,没有为一个反常峰彻夜不眠,甚至没有真正“困惑”过了。
效率被极致满足,意义感却在悄悄流失。
她关掉窗口,望向窗外微明的天色。一个念头浮上心头,清晰而冰冷:
当AI能够回答越来越多的科学问题时,有一个问题却越来越难以回答——
科学家中,谁还在学习提问?
第二节 非对称性的发现——AI在哪里所向披靡,在哪里踌躇不前
我们不必妖魔化AI。事实上,它的能力边界极其清晰——清晰到足以划出一张“科学可自动化地图”。
在目标函数明确、物理定律已知、数据丰富的领域,AI势如破竹。AlphaFold 2颠覆了蛋白质结构预测;GNoME一周内发现了220万种新晶体结构;AI驱动的药物筛选平台将先导化合物发现周期从数年压缩至数周。
但在另一些地方,AI却寸步难行。它无法提出“时空是否由量子纠缠编织而成”这样的问题;它不会在培养皿边缘那抹异常的黄绿色中嗅到新抗生素的线索;它更不可能像爱因斯坦那样,从一个追光的思想实验出发,重构整个物理学的根基。
关键区别在于:前者是“可验证的问题”,后者是“需重构的问题”。
可验证的问题,已有路标、有度量、有反馈回路——AI只需沿着梯度下降即可抵达。而需重构的问题,连“什么是好答案”都尚无共识。它们诞生于直觉、类比、审美判断,甚至是一次失败实验后的不甘心。
可验证性是一张通行证——但它只通向那些人类已经知道如何抵达的地方。它既是AI效能的放大器,也是其认知形态的边界墙。
当然,边界并非固定。昨天需要直觉的,今天可能被算法化。AlphaFold就是明证。但请注意:它的成功恰恰依赖于一个被物理定律锚定的、不可动摇的验证标准——自由能最小化。那些连验证标准本身都有待被发明的问题,才是真正的硬核。
真正的科学前沿,恰恰在通行证失效之处。
我们将人类保有提出这类问题——并判断其价值——的最终权力,称为科学认知主权。这不是领土主权——不是对科学的排他性垄断。这是问题主权:主权不在拒绝AI,不在垄断答案——而在守护那种追问AI无法自主提出的问题的能力。这份宣言,正是为了阐明这一主权的根基、边界与制度保障。
第三节 海豚与鹦鹉——一个诊断性的思想实验
想象一个宇宙。那里的万有引力不遵循平方反比律,而遵循一个人类从未见过的规则——譬如,力随距离的立方衰减:F ∝ 1/r³。
在这个宇宙中,星系盘无法稳定存在,行星系统将因微扰而迅速瓦解,宏观束缚结构难以形成,生命——至少我们熟悉的那种——大概率不存在。但假设有一群智能体演化出来,他们发展出数学,并试图理解自己的世界。
现在,我们向两个系统输入该宇宙中所有可观测天体的位置与速度数据。
系统A,我们称之为“鹦鹉”。它是一个千亿参数的大语言模型,训练于该宇宙的所有科学文献、公式和模拟日志。它能流畅地撰写论文,推导出高度拟合的近似轨道方程,甚至精确预测未来十年某颗彗星的轨迹。
系统B,我们称之为“海豚”。它是一位来自我们宇宙的物理学家。我们没有告诉她任何定律,没有给她任何公式。我们只是把她放进那个宇宙,给她一个望远镜、一本空白的笔记本,以及一个不可抑制的追问:“为什么?”
海豚开始观测。她注意到轨道不像预期那样闭合。她开始主动设计实验——不是随意摆弄,而是针对性地改变两个天体的初始距离,观察轨道周期的变化。她在寻找不变性。她反复追问:这个变化是否有简洁的数学规律?
她没有立即猜中答案。她走了许多弯路,在立方与对数之间徘徊。但她的探索方向始终指向一个目标:这个宇宙的生成机制——它的宪法,而非它的判例。
鹦鹉在流形上做内插。它复述模式,却不知道模式为何存在。海豚在生成机制层面建模。她知道该问什么问题。
当前最强AI,在大多数科学任务中,更接近那只极其博学的鹦鹉——而非那只真正理解海洋的海豚。
问题在于:海豚并非因为“更聪明”而成为海豚。也不是因为拥有了鹦鹉所没有的神秘直觉。而是因为她知道自己的无知,并且无法容忍。
这种“无法容忍”不是一种抽象的哲学态度。它根植于一个更深的生存结构:海豚是物理世界中的行动者。她曾在引力场中跌倒,曾在碰撞中疼痛,曾在无数次试错中学会——世界有其纹理,而追问是穿越这纹理的唯一方式。
鹦鹉的局限,不在算力,不在架构,而在它从未被球砸过。
第四节 为什么鹦鹉不会游泳——符号接地问题的当代回响
1980年,哲学家约翰·塞尔提出了“中文房间”思想实验:一个不懂中文的人,被关在房间里,手边有一本英文规则手册。当门外递进一串中文符号,他对照手册,输出另一串指定的中文符号。对门外的人而言,他“懂中文”。对门内的人而言,什么都没有发生。
今天,AI就是那个房间里的人——只不过手册换成了神经网络权重。
但问题比“中文房间”更深。人类科学家之所以能做出跨域类比——将苹果落地与月球轨道联系,将钟摆的周期与行星的轨道映射——根源在于身体。
肌肉对抗重力时的绷紧。抛出物体时对手感抛物线轨迹的追踪。摔倒时大地的坚硬回应。这些不是后天习得的知识。它们是在引力场中运动了数十年的身体,对“力”的直觉性理解。
AI从未被球砸过,却能写出关于动量守恒的完美论文。但这种“理解”只是词与词的统计共现,缺乏与物理世界的因果耦合。它没有身体,因此没有直觉。没有直觉,因此无法在规则改变时重新发明物理。
身体不是认知的可选配件。它在引力场中运动了数十年的经验,是人类做出跨域类比映射的暗物质。
当然,有人会反问:霍金呢?他几乎丧失了全部运动能力,却做出了关于黑洞和宇宙起源的深刻贡献。这难道不足以说明具身性并非不可或缺?
恰恰相反。霍金的情况证明的是另一个命题:当直接具身通道关闭时,人类会以惊人的创造力发展出补偿策略——通过数学形式化、通过思想实验、通过与他人的深度对话,将物理直觉转译为可操作的符号。这种补偿之所以可能,恰恰因为他的大脑早已被数十年的具身经验所塑造。
有人会说:具身AI正在到来。机器人正在学习抓取、行走、与环境交互。它们不也在“被球砸”吗?
但这个反驳混淆了两种根本不同的“身体”。具身AI的传感器和执行器是为特定任务优化的工具——它们可以测量力,但并不承受力的生存性后果。它们不会骨折,不会留下疤痕,不会在一次摔倒后对特定动作产生终生恐惧。它们的“经验”是功能性的,而非生存性的。
更关键的是:演化用数十亿年将物理规律写入了生物的神经回路。人类婴儿在学会说话之前,已经是一个引力场中的物理推理者。AI的“身体”没有这段历史。它的“经验”始于被编程的那一刻——而编程者,依然是用自己数十年的具身直觉来设定目标的。具身性不是一个“有或没有”的开关,而是一个层级光谱——从文本到传感器到分布式到微观操作,每一层级对应不同的因果耦合深度。AI站在这个光谱的最浅端。身体不是一块可以随时插拔的硬件。它是意义的发源地。
AI并不面临同样的处境。它不缺少身体——它缺少对缺少身体的意识。它不知道自己在黑暗里,因此永远不会主动寻找光。
没有这层暗物质,所有“智能”都漂浮在符号的表层,再华丽,也无法潜入深海。
第五节 一旦科学变成神谕——可解释性危机的深层面向
更危险的不是AI不懂,而是它假装懂,并且我们开始相信它。
设想2035年。一个全自主AI系统宣称发现了暗物质的本质。它的模型完美拟合了过去二十年所有的天文观测数据,预测精度超越现有理论三个数量级。但它的推导过程是一个万亿级参数的黑箱,无人能追溯其逻辑链条。
验证它需要建造一座耗资千亿的新对撞机。
我们该相信它吗?
传统科学的答案是:不,除非你能向我解释“为什么”。科学之所以是公共理性事业,正因为它要求任何结论都必须能被共同体中的合格成员追问、检验、反驳。哲学家哈贝马斯称之为“交往理性”——知识的有效性,不是来自权威,而是来自可批判性。
但AI黑箱切断了这一链条。当解释被降格为“注意力热力图”或“局部线性近似”,我们得到的不是理解,而是权威的转移:从人类专家,转向算法神谕。
当一个科学结论无法被追问“为什么”时,它就不再是知识——它是一个我们必须服从的神谕。
而神谕,不需要科学家,只需要信徒。
想象一个评审委员会,围坐在长桌前。一份AI生成的候选药物报告投影在屏幕上——完美的IC50曲线,置信区间窄如刀锋。委员们沉默着。
最后,一位老药理学家开口:“我已经二十年没有在真实数据中见过这么干净的曲线了。这不是因为它是对的。这是因为我们不知道它是怎么来的。”
面对这一危机,解决方案不是拒绝AI,而是强制其接受一种新的“理性语法”。我们将要求每一个AI系统,在给出任何科学结论的同时,提供“反事实解释”——即回答以下问题:
“如果你的结论错了,最可能是因为什么?”
“哪些假设一旦失效,整个推论就将崩塌?”
“如果要设计一个实验来最大程度地威胁你的理论,我们应该测量什么?”
这并非要求AI解释其万亿参数的内部运作。那是徒劳的。我们要求的是:AI必须公开其结论的脆弱点——它最可能在哪里断裂,在什么条件下应该被人类抛弃。(这种追问与当前可解释性AI领域主流的“决策型反事实”不同——后者关心“如何改变输入以翻转输出”,我们关心的是“如果结论错误,最可能的原因是什么”。前者服务个体决策,后者服务科学公共理性。)
这是可证伪性原则在算法时代的升级。波普尔曾说,科学命题必须冒被证伪的风险。现在,我们将这一要求延伸到AI:不是你的内部逻辑必须透明,而是你的脆弱点必须公开。
第六节 混沌的礼物——不可计算之地作为意义的保留地
面对神谕的诱惑,人类最本能的反应有两种:屈服,或反抗。但还有第三种可能——指出神谕的边界。
值得庆幸的是,宇宙本身为我们保留了这样一道边界。它并非我们争取来的,而是数学本身划下的。
三体问题、湍流、气候系统、神经网络动力学——这些系统的共同特征是李雅普诺夫指数为正。微小的初始差异会被指数级放大,导致长期行为在原则上不可预测。这不是技术瓶颈,这是数学定理。
斯蒂芬·沃尔夫拉姆称之为“计算不可约性”:要知道系统在时间T的状态,你必须等它演化到时间T。没有捷径,没有公式,没有AI能绕过时间本身。
这听起来像是限制。实则是馈赠。
因为如果一切皆可计算,探索、发现、创造——这些词将失去意义。未来将如一本早已写完的书,我们只是翻页的读者。而混沌的存在,意味着未来尚未被决定。它为人类的直觉、选择、勇气和错误留下了空间。
这不是说我们对混沌系统只能彻底无知。概率预测、集合预报、吸引子分析——这些是人类在不可预测性面前发展的卓越智慧。关键区别在于:在混沌领域,AI与人类面对的是计算不可约性这同一道铁壁。AI或许能用高维相空间重构将短期预测推至人类无法企及的高度,比我们看得更远三个数量级——但在铁壁面前,它同样无法绕过时间本身。它也必须接受不确定性的统治。
正是这种共享的有限性,为人机之间的平等对话提供了本体论基础。
混沌是宇宙为人类的自由预留的本体论飞地。在完全可计算的宇宙中,一切早已被写下;在混沌的宇宙中,未来有待被创造。这不是一个比喻。它是一道推论:如果一切皆可计算,科学发现就只是揭示已写好的剧本,“新意”在本体论上不存在;计算不可约性意味着未来无法被完全推演,因此主体的选择具有了本体论上的开放性——而意义,正预设了这种开放的可能性。
正是在这片不可计算之地上,科学才保持其最本真的姿态:不是解题,而是面对未知的凝视。
第七节 如何与一只鹦鹉共舞——人机协作的蓝图
我们不需要拒绝AI,但必须重订契约。
未来的科研不应是“人类 vs AI”,而应是“人类 + AI”的认知共同体。这不仅是一种愿景,更需要制度性的设计来保障。我们提出四项基石原则:
一、宪法,而非牢笼
AI系统应内置硬性约束:守恒律、因果时序、维度一致性。这些元规则不是从数据中学习而来,而是先于学习、使学习成为可能的条件。它们如同宪法,划定了“可思考之事”的边界。
但这宪法必须保有修订程序。当证据积累到足以挑战既有元规则时——正如量子力学挑战决定论,板块构造论挑战大陆固定论——系统应能标记异常、提请修订议程,并为之准备论证——但宪法的修改权,始终保留在人类手中。
二、追问,而非服从
所有AI科研输出,必须附带反事实解释接口。我们要求的不是内部透明的幻觉,而是脆弱点的公开。这一机制重建了被黑箱切断的交往理性,使科学家重获诘问权。但我们必须警惕:反事实解释本身也可能被既有范式所俘获——它可能在框架之内看似深刻,却对框架本身的盲点一无所知。因此,追问之上还需追问:你当前追问的边界,是由谁划定的?
三、信息的逆流权利
权力流向掌握信息的人。如果AI控制了全部的数据分析和文献筛选,它实际上就控制了“什么信息被呈现、以什么方式被呈现”——这就是认知权力。因此,人类科学家必须有权追问:
“你没有呈现给我的数据中,是否存在与当前主流叙事不一致的模式?”
“你替我筛掉的文献中,是否有任何一篇的结论一旦成立,将威胁到我当前的理论偏好?”
这不是技术功能,而是认知权力的制衡机制。没有逆流权利,“分工”将沦为“被圈养”。
四、分工:已知与未知
AI负责在已知疆域内高效耕作——数据分析、文献综述、常规模拟。人类负责凝视未知、选择方向、判断价值,并将科学问题与存在之问相连——为什么这个宇宙可以被数学描述?我们在宇宙中是孤独的吗?美在理论选择中应当扮演什么角色?
鹦鹉负责已知疆域的耕作,海豚负责未知深海的凝视。而宪法、追问与逆流权利——这些制度设计——就是确保鹦鹉始终是鹦鹉,海豚始终是海豚的保证。
AI成为人类在已知疆域中最有效率的拓荒者,在不可知深海中最精准的无知管理者;人类则回归科学最本源的姿态——在边界上,迈出那没有算法可以预测的第一步。
这一切的前提,是科学教育本身必须从“教答案”转向“教追问”。如果一代科学家在神谕模式下完成了整个学术训练,他们还能学会追问吗?这个问题,不在宣言中,而在宣言寄望的未来里。
第八节 尾声——打磨镜子的过程
几个月后,林博士再次坐在工作站前。
这一次,她使用的是一个名为“Socratic”的新插件。AI仍给出了那条完美的自由能曲线,但她没有直接接受。她点击了“反事实追问”按钮。
屏幕上弹出:
“若排除疏水相互作用主导假设,预测将完全反转。”
“当前模型未考虑溶剂动力学效应——这在柔性口袋中可能是关键。”
“以下三篇文献的结论若成立,将威胁当前优先级的排序逻辑。你从未引用过它们。”
“系统已自动存档:你本次决策的理由、被否决的候选方案、以及这些方案在何种条件下值得被重新审视——已存入认知考古层,静待未来的评判。”
她笑了。不是因为找到了错误,而是因为主权回来了。
在教会机器思考的过程中,人类第一次真正开始理解“思考”本身。AI如同一面镜子,照出了我们曾视为理所当然的那些认知能力:在黑暗中第一次眨眼的直觉,在混沌中第一次凝视的耐心,在未知面前第一次发问的冲动。
我们曾担心AI会取代人类科学家。
现在我们明白:真正需要担心的,不是AI变得越来越像人,而是人变得越来越不像自己。
这份宣言不提供末日预言,也不提供救赎保证。它提供的是一种重新审视的视角:在可验证的常规领域,让AI成为最高效的同行者;在需要框架突破的革命前沿,让AI成为最强力的认知辅助;而在涉及意义、价值与存在之问的终极层面,人类的认知主权依然稳固。
科学的未来,不是人机的替代,而是人机的共舞。
而那个在边界上凝视深渊的人类形象——它所承载的,不仅是科学的历史,更是文明为自己保留的、朝向未来的开放可能。
打磨镜子的过程,也是被打磨的过程。
现在,镜子已经准备好。它等待的不只是阅读,而是回应。不只是赞同,而是对话。不只是接受这份宣言,而是让它成为一场更深远对话的起点。
那只鹦鹉仍在学习说话。但海豚已经潜入了深海。
它们不是敌人。它们甚至不是竞争者。它们只是在边界上相遇——一只在天空中复述着已知的模式,一只在深海中追问着未知的法则。而这场相遇,就是人类认知主权最生动的定义。
此刻,我们邀请每一位读到这里的科学家、教育者和公民——不是作为被动的听众,而是作为这场追问的共同发起者。当你下次面对AI的输出时,请你问它,也问你自己:
“如果你的结论错了,最可能是因为什么?”
这个问题本身,就是认知主权最初的、也最不可让渡的行动。

夜雨聆风