乐于分享
好东西不私藏

写于2026年5月:AI做科研和人类做科研有什么区别?

写于2026年5月:AI做科研和人类做科研有什么区别?

AI 强势介入科研,论文产出的数量正迎来一场指数级的爆发。

海量的文献堆砌,并未如期带来同比例的智识增量,反而让每篇论文的平均价值急剧缩水。

当学术界正演变成一个巨大的 Agent-to-Agent 社交媒体,我们必须重新审视:人的坐标到底在哪里?

一、 AI 介入科研之后

2026年,人工智能早已正式进入科研流程。

但是,当论文数量在增加,大批量的平庸论文也随之问世。

直接原因在于语言模型的底层逻辑。语言模型天生具备极强的结构性,也就意味着 AI 写出来的东西,往往会为了结构的工整而牺牲逻辑的连贯,导致文本中出现大量重复。你在引言里读过的话,到了论证部分往往会原封不动地再现。

这种高效的文字接龙,本质上是在已知知识的空间内进行插值”——它根据统计概率,在 A 点与点之间,填充出一段听起来最为合理的续写。这种续写并非是思想的破局,而是对平庸共识的二次反刍。

当AI提效方面的作用毋庸置疑,有一大批人在利用这种效率差疯狂变现。他们量产论文,抢占录用机会,收割最后一波学术红利,然后带来论文数量的虚假繁荣。

然而,这种繁荣是极其脆弱的。

当发表论文不再是门槛,发表本身就失去了意义。

当发表数量这一指标开始贬值,我们过去依赖的评价体系,比如 H 指数、引用指数,将会彻底崩溃。

如果整个学术圈都被 Agents 驱动,学术界本质上就成了一个自动化的流水线。

论文是 Agent 写的,审稿是 Agent 审的,Rebuttal Agent 生成的,甚至连海报和演讲都是模拟仿真的。

当论文写作逐渐沦为 AI Agent 流水线的副产品,学术界已经变成agent-to-agent的社交圈,那又何必需要人类介入?甚至干脆不需要使用人类语言,不需要考虑人类可读,学术期刊都不是必需品。

如果只需要营造面向Agent设计的研究生态,那么人类读者如何自处。

不幸的是,这种情况或许已经近在眼前;但幸运的是,至少当前还没有。

那么,人类至少还有几年(或者几个月)来思考:对人类学者来说,如何做出最有深度、最能影响人类认知的研究工作?

二、何为大师?

AI+科研的种种现象已经证明:AI是最强的脑力杠杆。它能够极大地提速提效,也能快速放大人与人之间的差距。

AI能把少数人的高阶认知资本无限放大,同时把平庸的标准化技能大规模替代。

无论技术人员如何鉴定当前的AI达到了高中生还是本科生的认知水平,至少在科研方面,AI依然无法具备顶尖人类学者的三个核心特质。

第一,长期且深刻的问题意识。

AI 可以根据指令生成问题,但它永远不会被一个问题所困扰。它没有认知不适,如果没有输入,它便处于死寂。

真正的学者,往往被某个问题长期折磨,那种非要撕开理论弱点不可的执念,是任何算法都模拟不出来的。

费曼曾提到,他在脑子里同时维持着十几个开放性问题,每遇到新信息,他会立刻判断它能否照亮其中某一个。

从信息交互的角度来看,AI改变的只是信息的供给效率,但是真正决定信息需求的还是人类用户自己。人类需要自己发问我到底想知道什么才能激发对AI的高效利用。甚至可以说:人类对信息的需求程度越高级,AI的信息供给效果才能越高明。

但是,这个问题的回答难度,丝毫不亚于苏格拉底的那句名言认识你自己

能够时刻知道自己想知道什么,绝非易事,要么受过严格的学术训练,要么是大彻大悟、领悟人生智慧。在这个层面上,工具的实际使用价值不在于工具本身,而在于使用者自身。长期且深刻的问题意识能够高效驱动AI

第二,学术直觉与审美判断。

AI 的逻辑是连续性的,它在已有概念之间建立连接,在已知点之间填充内容,无法真正质疑训练数据建立的世界观。

而天才的思维本质是跳跃性的。他们不只是在已有知识中检索,而是在阅读、思考、观察的过程中,持续感知哪里有张力、哪里有矛盾、哪里有尚未被命名的现象。这种感知不是算法,而是长期浸泡在一个问题中形成的直觉。

比如爱因斯坦,他提出相对论,是因为他愿意追问一个被认为不成问题的问题:如果我以光速奔跑,看到的光是什么样的?

越是天才,越是需要对问题的直觉判断。这种直觉不是计算,而是来自无数次思考、阅读与实验现场经验的反复校验,它更接近一种审美、一种想象、一种直觉。

正如哈代所言,美是检验数学真理的第一道关卡

顶尖学者对理论的简洁、统一和解释力有本能的偏向,这让他们在混沌的数据中,能直觉性地偏向正确的那一个。

任何科研走到最后,需要的不仅是智慧,而是勇气。那种迈向无人之境的勇气——在那里没有共识,没有对错标准,只能靠自己一锤定音。

但是这一系列能力,目前的AI还不具备。

第三,长期主义。

从用户交互的角度来说,AI注定是短期主义者:凡是有问,必须回答,而且必须一次性给出答案。

但是真正深刻的问题是不容易找到答案的。

尤其是伟大的发现、研究范式的突破,往往需要漫长的失败期,达尔文从考察归来到发表《物种起源》,用了二十年。这期间就是漫长的失败、修正与应对反驳。

AI 没有这种时间维度上的坚持,它不会因为一个假设被推翻而感到沮丧,也不会因此变得更强。

从知识结构上来说,AI的知识是宽而浅、均匀分布的。它对量子力学和文艺复兴绘画的了解,在形式上是对称的,但也都是浅尝辄止的。

顶尖学者在长期研究的积累下,其知识结构则是极度不对称的。他们在自己的核心领域,有着远超AI的深度积累,包括大量未发表的思考、失败实验的教训、与同行争论的记忆、以及对领域内隐性知识的把握。这些东西从未出现在任何文本中,因此AI永远无法获得。

只有这种长期坚持,才能超越已有研究范式,对整个知识界的既有框架展开反思,才能在别人认为理所当然或者毫不相干的地方发现问题。

就像达尔文在加拉帕戈斯群岛看到的和同行看到的是同样的鸟,但只有他问出了那个问题。

就像香农将布尔代数引入通信工程创立信息论,只有他能看出这两个领域看似毫不相干,实则包含更深层次上的同构关系。

归根结底:AI极大地扩展了科研的效率边界,就像望远镜扩展了人类的视野边界一样。但望远镜本身不会提出宇宙起源的问题,不会在观测数据中感到震惊,不会在两个不相干的现象之间突然看到联系。

大师之所以是大师,恰恰在于他们做了那些 AI 做不到的事:在混沌中识别意义,在失败中坚持,在边界处突破。

三、学者必须进化

AI进化速度很快。在现阶段,一篇论文的生成或许需要人类学者反复监控、调试、检阅、修改,但是随着大模型迭代,自动化科研的 Multi-Agent 系统正在飞速发展

人类学者必须重构自己的能力地图,必须要去配合AI、超越AI、对抗AI

首先需要配合AI。当然,配合的本质就是服从。这个时代的年轻人,必须学会使用AI

然后需要超越AI。要知道AI给你的是听起来合理的答案,不是经过检验的答案。AI为了文字接龙的流畅,可以胡编乱造参考文献,甚至捏造一个不存在的研究空白。所以,人类学者必须在某个细分领域,超越AI层面的通识理解,锤炼自己独特判断力。在Agent时代,哪怕不需要你懂代码,但一定需要你的逻辑构建能力、审美能力和决策能力。

最后是要对抗AI。对抗并不是为了反对。当年,原子弹的爆炸让人们惊讶于自己根本没想过该怎么应对这个发明,大模型的爆发再次告诉人们,最可怕的不是不发展,而是技术的发展远远快于文明的进步,一不小心就能够毁灭文明。

无论后现代主义、后人类中心主义如何宣称,在价值判断的立场上,人类文明必须是第一位的,人的生活是第一位的,人的主观幸福是第一位的。

AI 制造的是关于现实的文本,而不是现实本身。沉迷AI终将失去自我。

但是,当人机协同、脑机接口正在成为下一个产业风口,当我们把强大的芯片植入大脑,自我到底意味着什么呢?那就只能走一步看一步了。

往期文章

2026,认真生活,十句话

写于29岁:生活还是要有点故事

写于2025年末尾:十年后的我们希望今天的我们做什么?

写在博士毕业:读博就像出水痘,出完就免疫(看淡)了
写于2024年4月:盘点对我影响很大的10位社科学者
埃及游记:一个第三世界国家的社会风貌
写于27岁:对职业生涯的一些思考
批判教育学大纲和六本代表作简介
悲观中的乐观:对2023年社会经济的一些想法
帮助我理解中国的十本书和一些思考角度
写于读博第四年:一些对社会科学和社会生活的思考
作者:UCLA社会科学与比较教育PhD,主要关注教育变革、现代化、全球化、批判理论等。