AI确实把文献检索、数据分析、初稿撰写、语言润色等很多“苦活累活”自动化了,甚至能让非英语母语的研究者产出速度大幅提升。但这并不意味着科研可以完全交给AI。相反,它把人类最核心的能力推到了前台:提出真正有价值的问题、形成原创洞见、承担责任,以及在人机协作中推动科学真正前进。

AI带来的“生产力爆炸”与隐忧
AI工具(如大语言模型)确实让科研产出“提速”。清华大学徐丰力、李勇团队与芝加哥大学合作在《Nature》上的研究Artificial intelligence tools expand scientists’ impact but contract science’s focus(基于4100多万篇论文、45年数据)显示:使用AI的科学家年均发文量高出3.02倍、引用量高出4.84倍、晋升速度也更快(平均提前1.37年)。但这背后有个“内卷悖论”:个人效率爆棚的同时,集体科学探索的“知识边界”却在收缩。AI论文往往更集中于现有知识的增量优化,而非开拓全新领域。结果是论文数量暴增,但很多是“文笔流畅、科学价值平平”的“AI slop”(AI废料),让同行评议、基金评审和政策决策越来越难区分真金与白银。
AI生成的文章还常常带着一股“AI味”:逻辑工整但刻板、语言标准却空洞、面面俱到却缺少灵魂。它本质上是概率拼接训练数据的“工业化产品”,缺乏人类基于真实体验的细腻、幽默、尖锐或意外。
那么,人类写文章、做科研的核心价值到底在哪里?
1. 原创性与独特洞见是AI无法复制的
AI擅长“回答问题”和“模仿模式”,但真正推动科学进步的是“提出新问题”。AlphaFold能预测蛋白质结构,但驱动它的仍是人类科学家的假设和实验设计。文学评论或技术写作的顶尖作品,永远带着作者独有的生命体验、跨学科直觉和“情动于中而形于言”的温度,这些是AI目前(甚至长期)无法抵达的。
2. 写作过程本身就是深度思考与知识内化的修炼
亲手把纷繁思绪变成文字,不是效率问题,而是确认“我曾这样思考、这样感受”的过程。它逼你面对模糊、矛盾和不确定性,锻造批判性思维。AI可以帮你整理框架、润色语言,但无法替代你“想不出就继续想”的那个煎熬时刻,这恰恰是研究者成长的本质。

3. 责任、伦理与科学共同体的信任
《自然》总编辑Magdalena Skipper明确表示:AI可以辅助写作和技术审查,但不能成为共同作者,因为它无法承担责任。

4. 人机协同下的新范式
未来不是“AI取代人类”,而是“人类+AI”开拓第五范式科学(AI for Science)。AI是超级副驾驶,能并行模拟实验、处理海量数据;人类则负责设定方向、解读意外、注入伦理和人文关怀。善用AI的研究者,会把精力解放出来做更难的事——跨界融合、提出范式级问题,而不是被“发文内卷”消耗。
写在最后
在AI时代,坚持做科研写文章的价值,归根结底在于你不是在生产一篇“正确”的论文,而是在塑造一种不可替代的人类视角。它让你不被海量信息淹没,不让体验趋同,不放弃想象与创造的权利。那些真正有影响力的工作,依然来自“人味”十足的洞见、责任和坚持。
AI越强大,越需要我们保持清醒:工具永远服务于人。别停下笔(或键盘),而是用它去记录、思考、创造那些独属于你的、对科学真正重要的东西。这或许就是我们在AI时代依然需要科研、依然需要写作的最深刻理由。
2. 《自然》(Nature)总编辑Magdalena Skipper关于AI不能成为共同作者的表态
出处:2023年Nature新闻报道(针对ChatGPT等大语言模型作为作者的现象)。
核心观点:AI可辅助写作和技术审查,但不能成为共同作者,因为它无法承担责任(accountability)。作者使用AI时需在方法或致谢部分说明,否则可能视为剽窃。
相关链接:
Nature官网新闻:https://www.nature.com/articles/d41586-023-00107-z
8 The Verge报道(Skipper原话引用):https://www.theverge.com/2023/1/26/23570967/chatgpt-author-scientific-papers-springer-nature-ban
11 The Guardian同步报道:https://www.theguardian.com/science/2023/jan/26/science-journals-ban-listing-of-chatgpt-as-co-author-on-papers
12
3. “AI slop”(AI废料/低质论文)相关讨论
主要来源:
The Atlantic文章《Science Is Drowning in AI Slop》(2026年1月22日),讨论AI生成论文导致同行评议和科学文献“堵塞”。
18 Science期刊社论《Resisting AI slop》(2026年1月),警告AI可能降低文献可靠性。
19 Nature新闻《How AI slop is causing a crisis in computer science》(2026年2月13日),聚焦计算机领域AI低质投稿泛滥。
20
4. 人机协同与“第五范式科学”(AI for Science)
主要来源:
Microsoft Research博客《AI4Science to empower the fifth paradigm of scientific discovery》(2022年7月),首次系统提出“第五范式”——AI驱动的科学发现。
13 ACM《Communications of the ACM》文章《The 5th Paradigm: AI-Driven Scientific Discovery》(2024年11月),详细阐述AI如何成为科学新范式。
14
其他背景知识参考:
AlphaFold示例:DeepMind团队成果(已广泛报道,无需特定新链接)。
原创性、写作即思考、责任伦理等哲学/方法论讨论:源于科学哲学主流观点(如Karl Popper、Thomas Kuhn等经典理论),非单一论文。
夜雨聆风