
近期微信公众号批量删除AI写作文章登上热搜,作为刚开始起号的数据法学生必须蹭这个热度,火速转载这篇今年4月发表的法学论文,分享德国法学院教授是怎么看待AI辅助写作的。
汉堡大学法经济学教授Roee Sarel在2026年4月发表工作论文,系统论证AI辅助学术写作的正当性,并提出创新框架,将学术作者类比为职权主义上诉法官,对AI输出独立审查、核实后方可背书。文章结合法院程序规则与司法激励理论,为法律从业者和学术机构提供了可操作的AI写作治理思路。
汉堡大学法学院教授Roee Sarel认为,AI写作不是道德问题,而是制度设计问题。 论文对法学院学生、企业法务、律所以及任何需要在合规框架下使用AI工具的机构都有直接参考价值。提供了一套可以落地的问责逻辑,而不是停留在能不能用的争论上。
本文借助AI辅助翻译并整理,由人类进行全文审查与逐句校对。
核心问题:AI写作到底错在哪里?
汉堡大学法学与经济学研究所初级教授Roee Sarel在其2026年4月的工作论文中,针对AI辅助写作提出了基础性的法律区分,本质之恶(malum in se)还是禁止之恶(malum prohibitum)?
如果AI辅助写作本质上就是欺骗,就像伪造数据或捏造引用一样,那么任何规则都无法使其正当。但Sarel的论点是,AI辅助写作属于后者、即禁止之恶。AI辅助写作之所以在某些场合被认为“不对”,是因为特定的机构规则禁止它,而非因为它本身不诚实。
这个区分有现实意义。大学可以合理禁止学生在特定作业中使用AI,正如他们禁止个人考试中的协作,这背后有明确的教学目标。但对于职业研究者而言,这一禁止理由本身就大幅削弱了。
论文还指出,关键不在于“用没用AI”,而在于“怎么用”。把一句话输入聊天机器人、原封不动提交输出,和给AI提供详细提纲、让它协助打磨语言,这是两种性质完全不同的行为。前者是对学术责任的外包,后者更接近一位有经验的编辑助手参与工作。
论文引用了一项实验研究的结论,尽管人们认为纯粹由AI作出的判决不如人类公平,但当有人类介入(哪怕程度很低)的"混合法官"参与时,公平感与全人类法官并无显著差异。这个逻辑可以平移到写作场景,只要有实质性的人类参与和审查AI写作内容,问题就在很大程度上得到了缓解。
人类作者是上诉法官,不是橡皮图章
论文最具创意的部分,是将负责任的AI写作者类比为职权主义上诉法官、将AI辅助写作比为下级法院将裁决提交给上诉法院审查。
在职权主义上诉审查模型中,法官收到下级法院的裁决,即一个由他人产出的输出。但法官既不能盲目接受、也不必从零开始。在职权主义下,他的职责是独立调查、核实、审议,然后决定是确认、修改,还是发回重审。
Sarel认为,负责任的AI写作者应当以完全相同的方式运作。AI扮演下级法院的角色,产出初稿;作者扮演上诉法官,对其进行独立审查和背书。重要的是,法官对最终裁决负全部责任,不能以“下级法院写的”为由推卸责任。
论文用美国联邦上诉程序规则(FRAP)作了具体类比。例如,上诉记录规则要求法官审查完整案卷、不能仅凭摘要作出裁定,对应到AI写作,就是作者必须对AI援引的来源独立核查,而不能依赖AI自行生成的引用。再如,关于“无聊上诉”的规定。法院可以对明显站不住脚的上诉直接驳回、不浪费司法资源。对应到AI写作,就是作者应当识别并直接拒绝AI产出的幻觉内容,而非试图修复根本性的错误输出。
为什么规则比道德更有效?制度奖励设计
论文的第四章从法经济学视角,将这套逻辑进一步落实到激励设计上。
Shavell关于上诉程序的经典分析表明,上诉机制的真正价值不在于事后纠错,而在于事前约束:下级法院知道自己的决定会被审查,因此会主动控制决定的质量。这个逻辑平移过来意味着:同行评审、编辑审核、发表后的学术监督,共同构成对作者的"可信威胁",促使作者在提交前就认真核查AI输出,而不是寄希望于评审者来帮他兜底。
然而这里存在一个真实的风险,论文也直接点出:多层审查体系中,每一层都可能假设下一层会发现问题,从而形成责任扩散。就像联邦法院系统中上级法院发回重审后,下级法院倾向于进一步发回的“连续发回效应”。
在AI写作的语境里,这意味着,很有可能作者假设评审会审查,评审假设编辑会把关,编辑假设发表后会有人纠错,结果整体审查强度低于任何人的预期。
Shavell认为解决方案在于,在每一个层级明确分配责任,而不是依赖隐性的逐级传递。
认知偏见与披露义务
论文还讨论了两个在实践中经常被忽视的问题。
一是认知屈服。实验证据显示,当AI给出建议时,参与者约80%的时间会跟随AI的意见,即便AI是错的。同时,使用AI会提升人们对自身答案的信心,即便那个答案是被AI带偏的。对于这一风险,论文的回应并不是因此禁用AI,而是强调:只要后续的同行评审、引用核查等制度机制正常运作,中间阶段的认知屈服是可以被纠正的。真正重要的是最终发表的内容是否准确、论证是否成立。
二是披露规范。论文认为,现有的披露要求问错了问题。“你有没有用AI?”是一个二元问题,而真正有价值的问题是“你怎么用的,谁对结果负责?”。论文在附录中提供了一套详细的披露清单,并以这篇论文本身的写作过程作为示例,完整填写了每一条,包括使用了哪个版本的Claude、哪些阶段使用了AI、哪些内容是作者独立完成的,以及如何核查了所有引用。这种"方法论透明",比简单声明"本文使用了AI工具"信息量大得多,也更具实质性的问责意义。
结论
这篇论文的价值不在于为AI写作辩护,而在于为“负责任使用AI”提供了一套可操作的制度框架。
核心要点梳理:
• 问题定性:AI写作不是本质之恶,而是需要规范的工具。关键变量是"如何用",而非"有没有用"。 • 框架逻辑:作者是上诉法官,对AI输出独立审查、核实、背书,并对最终内容负完全责任;不能以"AI生成"推卸责任。 • 制度风险:多层审查体系容易产生责任扩散,必须在每个层级明确分配核查义务。 • 认知风险:人类对AI的认知屈服是真实的,但制度性审查机制(同行评审、引用核查)可以弥补。 • 披露建议:披露应具体说明AI参与的阶段和范围,以及作者如何核查和验证,而非仅声明"使用了AI工具"。 • 制度建议:机构(期刊、大学、资助机构)应制定明确的、针对"如何用"而非"能不能用"的规范,并定期随技术演进更新。
夜雨聆风