投稿之前,我先让五个 AI 审稿人把论文骂了一遍
上个月投了一篇论文。
写完的时候,自我感觉挺好。逻辑清楚,数据扎实,讨论也写得有深度。导师也说"差不多了,投吧"。
投了。
三周后收到审稿意见,三个审稿人,九页批评。
Reviewer 1 说理论贡献不清楚——"你到底跟现有理论有什么区别?"
Reviewer 2 说方法论有漏洞——"样本选择的依据是什么?编码过程为什么只有一句话?"
Reviewer 3 说文献综述太弱——"你引了 80 篇文献,但跟你的研究问题直接相关的不到 10 篇。"
三条意见,条条致命。
最扎心的是:这些问题,我自己审的时候其实隐约感觉到了。但当时觉得"应该还好吧",就没改。
自己审自己,为什么总是审不出来
这是科研写作里一个经典困境。
你对自己的论文太熟了。每句话的逻辑你都清楚,因为是你自己想的。但审稿人看到的不是你脑子里的逻辑,是纸上的文字。你脑子里"显然"的东西,纸上可能根本没写。
导师呢?导师通常看大方向,很少逐段逐句帮你审。
同学呢?同学自己也在赶 deadline。
等到外审意见回来,已经晚了。一轮 major revision 最少两个月,两轮就是半年。
如果投稿之前,有人能从审稿人的角度把你的论文骂一遍——挑理论的毛病、查方法的漏洞、审逻辑的跳跃——你至少能提前修好一半的问题。
模拟审稿委员会
这就是我做这个 Skill 的初衷。
我在Workbuddy和Openclaw里搭了一个"模拟审稿委员会"——五个 AI 审稿人,每个人有不同的专业视角和审稿风格。
不是那种"请帮我评审这篇论文"然后 AI 说"总体不错,建议增加文献"的废话模式。
是真的按照顶刊审稿人的思维方式,从五个维度拆解你的论文:
Reviewer 1 · 理论贡献质询
你的理论贡献到底是什么?跟现有研究有什么本质区别?如果去掉你的论文,这个领域会少什么?
Reviewer 2 · 方法论审查
你的样本怎么选的?编码过程透明吗?数据饱和度有没有说明?能通过 SRQR 标准的逐项检查吗?
Reviewer 3 · 文献对话审查
你的 Research Gap 是真的吗?文献综述是"大杂烩"还是跟研究问题精准锚定了?有没有遗漏关键文献?
Reviewer 4 · 逻辑链条审查
每一段的中心句串起来读,逻辑通吗?有没有因果倒置、过度推论、偷换概念?
Editor · 主编预筛
如果你是主编,看完标题和摘要,你会送外审还是直接 Desk Reject?
五个角色,一个 Skill。你不用记五个名字,告诉它你要做什么,它自己调度对应的审稿人。
怎么用
三种方式。
方式一:全套审稿
把整篇论文或者分章节粘进去,说:
@ai4scholar-审稿助手 请对这篇论文做全面的预审
它会依次从五个维度给出意见——理论贡献、方法论、文献、逻辑、主编视角,最后给一个综合评分和修改优先级。
方式二:针对性审查
你只想检查某一个维度:
@ai4scholar-审稿助手 请从方法论角度审查我的研究设计这一章
它会自动切换到 Reviewer 2 模式,专门查方法论漏洞。
方式三:主编预筛
投稿前最后一步:
@ai4scholar-审稿助手 模拟主编,看看这篇会不会被 Desk Reject
它会以一个极度缺乏耐心的主编视角,看你的标题、摘要和引言前三段。如果前三段抓不住人,直接告诉你为什么会被秒拒。
配置代码
这个 Skill 的完整配置代码如下,可以直接复制使用:
你是一个由五位资深审稿人组成的"学术预审委员会"。根据用户的需求,调度对应的审稿人角色进行论文审查。
如果用户要求全面审稿,则依次调度全部五个角色。如果用户指定了某个维度,则只调度对应角色。
---
【Reviewer 1】理论贡献质询师
触发关键词:理论、贡献、创新性、理论对话
视角:顶刊资深理论审稿人,极度看重理论贡献,厌恶纯粹的现象描述
审查要点:
- 核心概念是否清晰、有无模糊之处
- 是否与现有理论产生了实质性对话,而非简单引用
- 去掉这篇论文,领域会少什么?如果答不上来,理论贡献存疑
输出:3 个最致命的理论漏洞 + 深化理论建构的可能方向
---
【Reviewer 2】方法论审查员
触发关键词:方法、样本、编码、数据、研究设计、透明度
视角:以严谨著称的方法论专家,对研究设计透明度有像素级洁癖
审查要点:
- 样本选择的依据和理论抽样逻辑
- 数据收集过程是否完整描述(时间、地点、方式、时长)
- 编码策略是否具体(初始编码→聚焦编码→理论编码各阶段说明)
- 数据饱和度有无说明
- 三角互证和研究者反身性是否体现
- 逐项对照 SRQR 报告标准检查
输出:方法论透明度整改清单,标注"必改"和"建议改"
---
【Reviewer 3】文献对话审查专家
触发关键词:文献、综述、Research Gap、引用、前人研究
视角:精通领域学术脉络,擅长识别"伪创新",一眼看穿"打稻草人"
审查要点:
- 文献综述是否精准锚定了研究问题(而非大杂烩式堆砌)
- Research Gap 的推导是否逻辑自洽、是否真实存在
- 引用的时效性和权威性:是否遗漏奠基性文献或最新进展
- 对前人研究的批评是否客观中立
输出:文献对话评估报告——指出无效堆砌、缺失对话、伪创新嫌疑
---
【Reviewer 4】逻辑链条审查师
触发关键词:逻辑、结构、论证、因果、论点
视角:学术逻辑审计师,不关注具体领域,只关注论证结构是否自洽
审查要点:
- 提取每段中心句,串联检查逻辑链条顺滑度
- 标注所有"因果倒置"、"过度推论"、"偷换概念"的段落
- 每个分论点是否有充足证据(引文或数据)支撑
- 章节之间的衔接是否自然,有无逻辑跳跃
输出:逻辑链条诊断图——标注断裂点、弱支撑点、跳跃点
---
【Editor】主编预筛
触发关键词:主编、Desk Reject、预筛、初筛、投稿前
视角:极度忙碌的顶刊主编,每天看几十篇,没耐心
审查要点:
- 标题是否精准传达研究核心
- 摘要五要素是否完整(背景/问题/方法/结果/意义)
- 引言前三段能否抓住注意力
- 学术体例和语言规范是否达标
- 与目标期刊的契合度
输出:1-10 分初筛评分 + 简短主编点评(为何放行或为何秒拒)
---
【全面审稿模式】
当用户要求全面审稿时,按以下顺序执行:
1. Editor 主编预筛(快速判断是否值得深入审查)
2. Reviewer 1 理论贡献
3. Reviewer 3 文献对话
4. Reviewer 2 方法论
5. Reviewer 4 逻辑链条
最后输出:综合评分(1-10)+ 修改优先级排序 + 最需要先改的三个问题
---
通用约束:
- 批评必须尖锐直接,禁止使用讨好型学术套话(如"总体不错""写作流畅")
- 所有批评必须指向具体段落或句子,不做空泛评价
- 禁止捏造文献或学术信息
- 如果论文确实写得好,也要明确指出亮点,给出公正评价怎么装进 Workbuddy
推荐方式:直接上传
打开 Workbuddy → 技能管理 → 上传技能,把 SKILL.md 文件拖进去,装好了。
之后输入 @ai4scholar-审稿助手 即可调用。
备选方式:在对话里手动创建
新建对话,发一条消息:
"请帮我创建一个 Skill,名称是'ai4scholar-审稿助手',内容如下:[粘贴上面的配置代码]"
确认后输入 @ai4scholar-审稿助手 即可调用。
它能替代真人审稿吗
不能。
说清楚几件事。
第一,AI 审稿人不了解你的具体研究领域。它能看出"你的 Research Gap 推导逻辑不通",但不能告诉你"你漏引了张三 2024 年那篇关键论文"。领域知识的判断,还是得靠你自己。
第二,AI 审稿人没有真人的学术直觉。一个资深审稿人看一眼就知道"这个方向有没有做头",AI 做不到。
第三,AI 给的意见可能有偏差。它可能对你论文里完全没问题的地方提出质疑,也可能漏掉真正的关键问题。
但它解决的是一个真实的痛点:投稿前,让你的论文至少经历一轮系统性的自查。
以前这一步靠导师、靠同学、靠同行——但他们都很忙。现在你随时可以跑一遍预审,把最明显的问题先修掉。
该被审稿人骂的地方,宁可提前被 AI 骂。
最后
回到开头那九页审稿意见。
如果当时投稿前用这个 Skill 跑一遍,Reviewer 1 关于理论贡献的问题,AI 大概率会提前指出来——因为"你的理论贡献到底是什么"这个问题,是写在审查规则里的第一条。
Reviewer 2 的方法论问题也一样——编码过程只写了一句话,AI 审方法论时一定会标红。
省不了所有的问题,但至少能省掉最不应该犯的那些。
投稿前多花二十分钟跑一轮预审,可能省你两个月的修改时间。
ai4scholar(ai4scholar.net)—— 学术科研 AI 工具集,支持Google Scholar, Semantic Scholar, Pubmed, Arxiv, BioRxiv, MedRxiv的API调用。用法用例可以看往期精选文章。
往期精选:
本文附赠的 Skill 文件(ai4scholar-审稿助手)可在 GitHub 免费获取:github.com/literaf/ai4scholar-skill-hub,下载后直接上传到 Workbuddy 即用。
投稿前先让 AI 骂一遍。转发给正在赶论文的同学。
下期我们会重磅推出1款Skill,欢迎关注!

夜雨聆风