乐于分享
好东西不私藏

“养龙虾”不是科研捷径:当 OpenClaw 被吹成神话,我们更该警惕什么

“养龙虾”不是科研捷径:当 OpenClaw 被吹成神话,我们更该警惕什么

这段时间,龙虾很火。不少人把OpenClaw 这类 AI Agent 说成科研场景里的外挂”——能查文献、能写综述、能分析数据、能跑流程,仿佛只要接上工具,研究生就能从苦力一键升级成高效科研人

这种说法听起来很诱人。但真正值得警惕的,恰恰不是工具本身,而是围绕它形成的那种叙事:把辅助说成替代,把提效说成革命,把想象写成事实。

OpenClaw官方自己的定位,其实很直白:它是一种能真正去做事的 AI 助手,可以清理邮箱、发邮件、管理日历、执行任务,而不只是聊天。也就是说,它首先是一个行动型工具平台,而不是一个天然可靠的科研合作者

问题在于,一旦这种工具被包装成科研神兵,很多人就会下意识忽略一个最基本的常识:工具可以提效,但不能替你负责。

核心观点:我反对的不是OpenClaw 本身,而是把它包装成科研捷径甚至科研外挂的神话式叙事。

一、OpenClaw 不是问题,被神话的 OpenClaw 才是问题

要承认,AI Agent这条路确实有吸引力。比起传统对话式 AIOpenClaw 这类工具更进一步:它不是只告诉你应该怎么做,而是试图直接替你执行流程。官方介绍里就明确强调,它能处理邮箱、日历、航班值机等现实任务。

这意味着它的价值,在于连接任务缩短操作链路。这没有问题。真正的问题在于,一些文章或宣传语把这种能力不断外推,最后变成了另一种危险表达:能自动做事,约等于能自动做研究;能生成内容,约等于能生成可信内容;能跑通流程,约等于能保证学术质量。

但学术场景从来不是普通事务场景。发一封邮件出错,可能只是尴尬;写一段文献综述出错,代价可能是整篇论文的可信度崩塌。所以,OpenClaw可不可以用?当然可以。但它能不能被写成研究生的科研外挂?我不认同。

二、真正的风险,不是AI 会不会写,而是人会不会不查

今天讨论AI 进入科研,最核心的问题从来不是它会不会写,而是:它写出来的东西,你到底核没核。

2026年发表在 arXiv 的一项大规模研究 GhostCite,系统测试了 13 个主流大模型在 40 个学科场景下的引文生成表现。结果显示,所有模型都出现了引文幻觉,比例从 14.23% 到 94.93% 不等。换句话说,AI 不只是会说错,它还会非常自然地编出一条看起来像真的参考文献

更值得警惕的是,这项研究还分析了2020 到 2025 年 56,381 篇顶级 AI/ML 与安全领域论文中的 220 万条引用,发现 604 篇论文包含无效或伪造引用,且 2025 年相关问题同比上升 80.9%

这说明,虚构参考文献已经不是一句泛泛而谈的担忧,而是正在进入真实学术传播链条的问题。一旦研究者、学生、评审同时对AI 输出缺乏警惕,虚假引用就会像灰尘一样落进论文、报告、综述和课题材料里,最后伤害的不是某一个工具,而是整个学术信任体系。

三、学术场景最怕的,不是效率不够,而是边界消失

很多人谈AI 进入科研时,最爱讲一句话:让 AI 做重复劳动,人去做创造性工作。这句话本身没错。问题是,现实里重复劳动创造性工作的边界,远没有想象中那么清楚。

比如,文献筛选看似机械,但该保留哪篇、该舍弃哪篇离不开研究判断;数据清洗看似流程化,但异常值怎么处理、变量怎么定义,仍然涉及方法责任;文本润色看似辅助环节,但一旦AI 开始主动补论证、补引用、补结论,它就已经越线了。

也就是说,科研里很多看上去可以外包的步骤,其实都和最终结论相连。你一旦只看效率,不看责任,工具就会从助手滑向代笔者

四、把OpenClaw 当工具没问题,把它当科研捷径就危险了

为什么很多人会被龙虾神话打动?因为它精准击中了研究生最真实的焦虑:时间不够、任务太多、工具太难、毕业太卷。

在这种压力下,任何一个号称能自动追踪文献、自动整理笔记、自动生成初稿的工具,看起来都像救命稻草。但越是在这种时候,越要记住:科研最怕的,不是慢,而是偷懒偷到了责任之外。

如果你把OpenClaw 用在整理公开资料、搭流程框架、生成初版提纲、处理非核心的重复性操作上,它确实可能帮你节约时间;但如果你进一步开始让它直接生成论文主体、代替你判断文献质量、输出分析结果后又不复查,那么它就不再是提高效率的工具,而是在侵蚀你的学术基本功。

五、比养龙虾更重要的,是别把判断力喂给龙虾

说到底,今天很多人讨论OpenClaw,讨论的根本不是一个软件。讨论的是:在一个人人都想提速的时代,我们还愿不愿意保留最慢、却最重要的那一步——自己判断。

你当然可以让工具帮你节约时间。但你不能把查证交出去,把理解交出去,把责任交出去。因为到了最后,真正写在论文首页上的不是OpenClaw 的名字,被导师追问、被同行质疑、被读者检验的,也不是 OpenClaw,而是你。

所以,我并不反对OpenClaw。我反对的是把它写成神话,把它吹成捷径,把它包装成科研焦虑时代的万能药。工具可以很强,但越强的工具,越需要清醒的人来使用。真正值得警惕的,从来不是你有没有养龙虾,而是当所有人都在谈效率时,你是否还记得:学术的底线,不在工具里,在人身上。

参考文献与数据出处

以下来源用于支撑文中关键事实与数字,适合在公众号文末保留,便于读者核查。

1. OpenClaw 官方定位

OpenClaw官网将其描述为能执行邮箱、日历、出行等真实任务的 AI 助手平台。网址:https://openclaw.ai/

2. 引文幻觉核心数据

Xu等,2026,《GhostCite: A Large-Scale Analysis of Citation Validity in the Age of Large Language Models》。核心数字包括:14.23%–94.93% 的引文幻觉比例;604 篇含无效或伪造引用论文;2025 年同比增长 80.9%。可公开检索版本:arXiv:2602.06718

3. 清华大学 AI 使用边界

清华大学2025 年发布全校性 AI 应用指导原则,强调积极而审慎、披露使用、警惕幻觉、严禁由 AI 替代独立智力劳动。

4. Nature 编辑政策

Nature明确要求 LLM 不能署名为作者;超出简单语言润色的 AI 使用需披露;最终文本责任由人类作者承担。

5. ICLR 2026 政策

ICLR要求任何 LLM 使用都必须披露,作者与评审对内容负最终责任,不得作出虚假或误导性陈述。

数据出处速览

数据项

数值

出处

引文幻觉比例

14.23%–94.93%

GhostCitearXiv:2602.06718

含无效/伪造引用论文数

604 

GhostCite2020–2025 样本统计)

同比增长

80.9%

GhostCite2025 相比 2024

发布建议:若用于公众号正式发布,可再配一张龙虾写文章的封面图,并在标题下加一行按语,增强传播性。