你去一家餐厅,点了一份宫保鸡丁。后厨叮叮当当,火苗窜起来,厨师颠勺的姿势很帅。最后端上桌的那盘鸡丁,和中央厨房标准化生产线上出来的,味道上到底有多大差别?
大多数时候,吃不出来。
但有个有意思的现象:同样是这盘宫保鸡丁,如果你提前知道它是预制菜微波炉加热的,你的评价大概率会下降。不是因为它变难吃了——可能和现炒的一模一样。但你心里会多一层东西。“这盘菜有人为它付出了时间、精力、经验”——这种东西,不是配方能记录的,也不是味道能还原的。
我们愿意为“现炒”付更多钱,不只是因为它更好吃。而是因为“谁为这盘菜付出了”这件事本身有价值。
这个心理机制,放在论文上,一模一样。

一篇论文行文流畅、论证严密,但如果告诉你这是AI写的,你的评价很难不打折。不是因为它变差了,而是因为“谁为这篇文章付出了思考”这件事变了。
王迁教授做过一个实验。他把自己论文里的观点和论证思路,整理成几百字喂给AI。AI吐出一篇近万字的法学论文。他只做了两件事:调格式,换脚注。然后投稿。三位匿名外审专家,没人发现是AI写的。两个人给了85分以上。
这个实验被用来论证“AI论文能骗过盲审”。但它真正暴露的不是AI有多强,而是另一件事:知道是预制菜之后,评价会下降——而且下降的幅度,比我们以为的大得多。
研究者还发现了一件更反直觉的事:在工作场所,一旦同事或上司怀疑你在用AI,你的道德评价会下降。你会被认为更懒惰、能力不足、不够勤奋、不可信,甚至不道德。更惊人的是,这种偏见有性别差异——同样是使用AI辅助写代码,女性程序员的能力评分被扣掉13%,男性只被扣6%。

AI本身没有问题。问题是社会共识还没跟上。我们的大脑里天然有一套判断:自己做才算本事,借助工具是走捷径。理性上知道AI是工具,但情感上还是会扣分。这个矛盾,短期内不会消失。
预制菜能替代现炒菜的功能,但它替代不了“谁做的”这个信息。
就像王迁的实验,AI证明了自己能骗过盲审。但他证明的是“能骗过”,不是“没价值”。一篇论文通过了盲审,和一篇论文有学术价值,本来就是两件不同的事。盲审能验证形式标准,它从来就没被设计成能区分人和AI。
当预制菜和现炒菜混在同一张菜单上,聪明的食客会问一个更根本的问题:这家餐厅的厨师,有没有能力区分这两种菜?如果他没有这个能力,那他做预制菜和做现炒菜,结果是一样的。如果他有这个能力,那预制菜对他来说,只是省时间的工具,而不是替代品。
学术也一样。
AI时代,真正的稀缺品不是AI生成的论文,而是那个知道什么时候该用AI、什么时候不该用AI的人。是那个调完AI之后,还能从第一句话开始把核心论证完整复述一遍的人。是那个清楚AI生成的内容里哪部分真正有价值、哪部分听起来像那么回事但其实是胡说八道的人。
这种判断力,不是论文本身能记录的,也不是AI能学会的。
论文没有死。但它作为“判断力证明”的功能正在退位,评价标准在升级。
以前发一篇核心期刊,大家默认你有研究能力。现在大家开始问:这盘菜是不是你自己做的。以后——大家会问:你有没有能力分辨,什么时候该用预制菜,什么时候不该用。
这不是刁难。这是“好不好吃”的标准在变高。
夜雨聆风