写于2026年5月:AI做科研和人类做科研有什么区别?

AI 强势介入科研,论文产出的数量正迎来一场指数级的爆发。
海量的文献堆砌,并未如期带来同比例的智识增量,反而让每篇论文的平均价值急剧缩水。
当学术界正演变成一个巨大的 Agent-to-Agent 社交媒体,我们必须重新审视:人的坐标到底在哪里?
一、 AI 介入科研之后
2026年,人工智能早已正式进入科研流程。
但是,当论文数量在增加,大批量的平庸论文也随之问世。
直接原因在于语言模型的底层逻辑。语言模型天生具备极强的结构性,也就意味着 AI 写出来的东西,往往会为了结构的工整而牺牲逻辑的连贯,导致文本中出现大量重复。你在引言里读过的话,到了论证部分往往会原封不动地再现。
这种“高效”的文字接龙,本质上是在已知知识的空间内进行“插值”——它根据统计概率,在 A 点与B 点之间,填充出一段听起来最为合理的续写。这种续写并非是思想的破局,而是对平庸共识的二次反刍。
当AI在“提效”方面的作用毋庸置疑,有一大批人在利用这种“效率差”疯狂变现。他们量产论文,抢占录用机会,收割最后一波学术红利,然后带来论文数量的虚假繁荣。
然而,这种繁荣是极其脆弱的。

当发表论文不再是门槛,发表本身就失去了意义。
当发表数量这一指标开始贬值,我们过去依赖的评价体系,比如 H 指数、引用指数,将会彻底崩溃。
如果整个学术圈都被 Agents 驱动,学术界本质上就成了一个自动化的流水线。
论文是 Agent 写的,审稿是 Agent 审的,Rebuttal是 Agent 生成的,甚至连海报和演讲都是模拟仿真的。
当论文写作逐渐沦为 AI Agent 流水线的副产品,学术界已经变成agent-to-agent的社交圈,那又何必需要人类介入?甚至干脆不需要使用人类语言,不需要考虑人类可读,学术期刊都不是必需品。
如果只需要营造面向Agent设计的研究生态,那么人类读者如何自处。
不幸的是,这种情况或许已经近在眼前;但幸运的是,至少当前还没有。
那么,人类至少还有几年(或者几个月)来思考:对人类学者来说,如何做出最有深度、最能影响人类认知的研究工作?

二、何为大师?
AI+科研的种种现象已经证明:AI是最强的“脑力杠杆”。它能够极大地提速提效,也能快速放大人与人之间的差距。
AI能把少数人的高阶认知资本无限放大,同时把平庸的标准化技能大规模替代。
无论技术人员如何鉴定当前的AI达到了高中生还是本科生的认知水平,至少在科研方面,AI依然无法具备顶尖人类学者的三个核心特质。
第一,长期且深刻的问题意识。
AI 可以根据指令生成问题,但它永远不会被一个问题所困扰。它没有“认知不适”,如果没有输入,它便处于死寂。
真正的学者,往往被某个问题长期折磨,那种非要撕开理论弱点不可的执念,是任何算法都模拟不出来的。
费曼曾提到,他在脑子里同时维持着十几个开放性问题,每遇到新信息,他会立刻判断它能否照亮其中某一个。
从信息交互的角度来看,AI改变的只是信息的供给效率,但是真正决定信息需求的还是人类用户自己。人类需要自己发问“我到底想知道什么”才能激发对AI的高效利用。甚至可以说:人类对信息的需求程度越高级,AI的信息供给效果才能越高明。
但是,这个问题的回答难度,丝毫不亚于苏格拉底的那句名言“认识你自己”。
能够时刻知道“自己想知道什么”,绝非易事,要么受过严格的学术训练,要么是大彻大悟、领悟人生智慧。在这个层面上,工具的实际使用价值不在于工具本身,而在于使用者自身。长期且深刻的问题意识能够高效驱动AI。

第二,学术直觉与审美判断。
AI 的逻辑是连续性的,它在已有概念之间建立连接,在已知点之间填充内容,无法真正质疑训练数据建立的世界观。
而天才的思维本质是跳跃性的。他们不只是在已有知识中检索,而是在阅读、思考、观察的过程中,持续感知哪里有张力、哪里有矛盾、哪里有尚未被命名的现象。这种感知不是算法,而是长期浸泡在一个问题中形成的直觉。
比如爱因斯坦,他提出相对论,是因为他愿意追问一个被认为“不成问题”的问题:如果我以光速奔跑,看到的光是什么样的?
越是天才,越是需要对问题的直觉判断。这种直觉不是计算,而是来自无数次思考、阅读与实验现场经验的反复校验,它更接近一种审美、一种想象、一种直觉。
正如哈代所言,“美是检验数学真理的第一道关卡”。
顶尖学者对理论的简洁、统一和解释力有本能的偏向,这让他们在混沌的数据中,能直觉性地偏向正确的那一个。
任何科研走到最后,需要的不仅是智慧,而是勇气。那种迈向“无人之境”的勇气——在那里没有共识,没有对错标准,只能靠自己一锤定音。
但是这一系列能力,目前的AI还不具备。

第三,长期主义。
从用户交互的角度来说,AI注定是短期主义者:凡是有问,必须回答,而且必须一次性给出答案。
但是真正深刻的问题是不容易找到答案的。
尤其是伟大的发现、研究范式的突破,往往需要漫长的失败期,达尔文从考察归来到发表《物种起源》,用了二十年。这期间就是漫长的失败、修正与应对反驳。
AI 没有这种时间维度上的坚持,它不会因为一个假设被推翻而感到沮丧,也不会因此变得更强。
从知识结构上来说,AI的知识是宽而浅、均匀分布的。它对量子力学和文艺复兴绘画的“了解”,在形式上是对称的,但也都是浅尝辄止的。
而顶尖学者在长期研究的积累下,其知识结构则是极度不对称的。他们在自己的核心领域,有着远超AI的深度积累,包括大量未发表的思考、失败实验的教训、与同行争论的记忆、以及对领域内隐性知识的把握。这些东西从未出现在任何文本中,因此AI永远无法获得。
只有这种长期坚持,才能超越已有研究范式,对整个知识界的既有框架展开反思,才能在别人认为理所当然或者毫不相干的地方发现问题。
就像达尔文在加拉帕戈斯群岛看到的和同行看到的是同样的鸟,但只有他问出了那个问题。
就像香农将布尔代数引入通信工程创立信息论,只有他能看出这两个领域看似毫不相干,实则包含更深层次上的同构关系。
归根结底:AI极大地扩展了科研的效率边界,就像望远镜扩展了人类的视野边界一样。但望远镜本身不会提出宇宙起源的问题,不会在观测数据中感到震惊,不会在两个不相干的现象之间突然看到联系。
大师之所以是大师,恰恰在于他们做了那些 AI 做不到的事:在混沌中识别意义,在失败中坚持,在边界处突破。

三、学者必须进化
AI进化速度很快。在现阶段,一篇论文的生成或许需要人类学者反复监控、调试、检阅、修改,但是随着大模型迭代,自动化科研的 Multi-Agent 系统正在飞速发展
人类学者必须重构自己的能力地图,必须要去配合AI、超越AI、对抗AI。
首先需要配合AI。当然,配合的本质就是服从。这个时代的年轻人,必须学会使用AI。
然后需要超越AI。要知道AI给你的是听起来合理的答案,不是经过检验的答案。AI为了文字接龙的流畅,可以胡编乱造参考文献,甚至捏造一个不存在的“研究空白”。所以,人类学者必须在某个细分领域,超越AI层面的通识理解,锤炼自己独特判断力。在Agent时代,哪怕不需要你懂代码,但一定需要你的逻辑构建能力、审美能力和决策能力。
最后是要对抗AI。对抗并不是为了反对。当年,原子弹的爆炸让人们惊讶于自己根本没想过该怎么应对这个发明,大模型的爆发再次告诉人们,最可怕的不是不发展,而是技术的发展远远快于文明的进步,一不小心就能够毁灭文明。
无论后现代主义、后人类中心主义如何宣称,在价值判断的立场上,人类文明必须是第一位的,人的生活是第一位的,人的主观幸福是第一位的。
AI 制造的是关于现实的文本,而不是现实本身。沉迷AI终将失去自我。
但是,当人机协同、脑机接口正在成为下一个产业风口,当我们把强大的芯片植入大脑,“自我”到底意味着什么呢?那就只能走一步看一步了。

往期文章
夜雨聆风