谁在裁决?——AI辅助法律适用中“亲听原则”与“禁止委托”的边界迷失
2026年4月22日,加拿大魁北克高等法院在ARIHQ c. Santé Québec案(2026 QCCS 1360)中作出了一项引人瞩目的判决:因仲裁员在裁决理由中大量援引由生成式人工智能虚构的判例和学说,且未履行任何核验义务,法院以仲裁员将裁决权实质委托给AI、违反“裁决者必须亲听”原则为由,撤销了该仲裁裁决。
几乎同一时期,国内司法实践也敲响了警钟。北京市通州区人民法院在审理一起股权代持纠纷案时发现,原告代理律师向法院提交的“参考案例”,竟是其向AI大模型输入案件事实后由AI生成的虚假案例——案号虽真实存在,但案例内容与实际裁判文书完全不符。承办法官在判决书中明确批评律师“不得放任人工智能模型生成或者编造虚假信息扰乱司法秩序”,并将批评意见正式写入裁判文书。
这两起事件,一北一南、一裁一审,却共同指向了一个正在浮出水面的根本性法理问题:当生成式人工智能以前所未有的速度嵌入司法与仲裁领域,AI的“辅助”究竟止步于何处,而人的“决断”又始于何方?这个边界问题并非单纯的学理争鸣——它的模糊直接导致裁判被撤销、裁决被搁置、律师受制裁等真实的法律后果。本文从辅助的边界这一核心命题出发,系统考察AI介入法律事务中的责任分配机制,重点分析由于边界不清所引发的程序性瑕疵及其法律后果,并在此基础上提出制度回应与风险防范方案。

一、AI辅助的合理边界:可接受使用与不可接受使用的类型化分析
明确AI辅助的合理边界,首先需要从法律职业的底层逻辑出发,厘清究竟哪些是“可以委托给工具”的机械性事务,哪些是“必须由人亲为”的核心裁决职能。
1.可接受的使用场景(辅助视为合法)。法律专业人士使用大语言模型进行文件摘要、从海量数据中识别相关文件、识别趋势、转录音频文件、更正或润色现有文本草稿、交叉核对判例或进行初步法律研究等,在各国实践中均被视为可接受的辅助使用。正如魁北克高等法院在ARIHQ案中所指出的:“越来越多的法律专业人士正在使用大语言模型来协助他们完成这些工作,任何能够促进公民诉诸司法的技术措施都应受到欢迎和规范,而不是被禁止和污名化。”具体而言,目前公认可接受的辅助场景主要包括:裁判文书文字校对与语法修正、庭审笔录的转录与整理、证据材料的初步分类与梳理、卷宗的智能阅卷与要素提取、法律条文的快速检索与提示等。这些场景的共同特征在于:AI处理的是信息层面的事务,而非判断层面的事务;AI的工作结果仅为法官或仲裁员提供参考,最终的判断权始终掌握在人手中。
2.不可接受的使用场景(辅助变为越界)。反之,当AI的使用逾越了“信息处理”的边界,进入“价值判断”或“裁决权行使”的领域时,便构成不可接受的使用。这具体包括:将AI作为裁决的实质决定者——即由AI主导事实认定、法律适用或裁决理由的撰写;向AI输入涉及案件核心判断的敏感信息并直接采信其输出结果而不加审查;使用AI生成虚构的判例或法条并纳入裁决依据之中;将本应由裁判者独立完成的自由裁量行为委托给AI执行。贸仲《关于在仲裁中使用人工智能技术的指引(试行)》第三条对此作出了清晰的界定:“人工智能技术的发展不应替代仲裁员审理案件的职责。人工智能工具产生的任何工作结果仅可以作为仲裁庭审理案件的辅助,仲裁庭对在人工智能工具辅助下作出的仲裁裁决承担责任。”其第4.2.2条进一步明确规定:“仲裁庭应确保对案件事实认定和法律适用的独立分析,不得将其决策权让渡给人工智能,不得转由人工智能工具进行事实认定或法律适用。”这一“辅助但不得让渡决策权”的边界设定,构成了判断AI使用是否合法的核心标准。
3.介于边界地带的模糊场景。现实中最棘手的问题恰恰在于二者之间的灰色地带:当AI生成的类案推送结果与法官的内心判断不完全一致时,法官是否有义务核查AI推送结果的准确性?当AI对证据的可采性提出初步判断时,法官的审查应深入到何种程度?当仲裁员在使用AI进行法律检索后,AI生成的结果中包含虚构判例,但仲裁员恰巧对该领域足够熟悉、足以凭借自身知识作出正确裁决时,他的独立判断是否可以被视为“未被AI实质影响”?这些问题的答案并非非黑即白,而往往需要结合个案中的具体情形——包括AI使用的程度和范围、输出结果的可验证性、裁判者是否履行了核验义务、AI幻觉是否实际影响了裁决结果——进行综合判断。

二、核心法理防线:“裁决者必须亲听”与禁止权力委托原则
在仲裁法理与司法制度中,“亲听原则”和“权力禁止委托原则”构筑了两道不可逾越的制度防线。AI的介入不可避免地触动了这两道防线的敏感神经。
1.“裁决者必须亲听”原则在AI时代的解释与适用。“裁决者必须亲听”原则(he who decides must hear)源于自然正义的基石——听取双方陈词原则(audi alteram partem)。魁北克法院在ARIHQ案中对此作出了经典阐释:“这一原则是‘听取双方陈词’规则的必然结果,因为只有当听取当事人陈述的人正是对其案件作出裁决的人时,该当事人才算真正被‘听取’。”从表面上看,AI并不“听取”当事人的陈述——它只是接收了仲裁员或法官输入的文本信息。然而,当仲裁员将裁决理由的撰写实质性地委托给AI时,便发生了一个法理上的“断裂”:当事人的陈述确实被仲裁员“听”到了,但最终作出裁决、撰写理由的主体却不再是那位仲裁员,而是算法。这使得“听取”行为与“裁决”行为发生了根本性的脱节——当事人在仲裁员面前据理力争,而判决却由机器在幕后生成。正如有学者所指出的:“正义不仅关乎判决结果,还关乎由谁、以何种方式作出判决。”ARIHQ案中,仲裁员援引的学说与判例引用全部为AI虚构,法院据此认定裁决“不尊重仲裁程序,因为仲裁员将其部分裁决权委托给了生成式人工智能工具”。
2.权力禁止委托原则的法理延伸。禁止仲裁员将其核心职能委托给非经当事人同意的第三方,是仲裁法中的一项基本规则。这一规则根植于仲裁协议的本质——当事人选择特定仲裁员,是基于对其个人判断力、专业素养和公正性的信赖,这种信赖具有人身专属性,不得未经当事人同意而转由他人代行。在AI语境下,这一原则面临新的适用场景:当仲裁员将事实认定或法律适用的判断工作实质上交由AI完成时,是否构成对裁决权的委托?ARIHQ案的答案是肯定的——法院认定仲裁员将决策权委托给了AI,理由是这位仲裁员不仅实质性依赖了AI产生的虚构判例,还放弃了核验AI输出结果的义务。这种“放弃审查义务”的行为,是法院认定权力委托已经发生的关键佐证:若仲裁员在依赖AI的同时履行了审慎的核验义务,则在性质上仍属于工具使用;若连基本核验都不做,则在本质上构成了对裁决权的弃守。
3.“亲听原则”与AI辅助之间的内在张力。一个更深层的法理张力在于:“亲听原则”预设了一个以“听觉—判断”为核心的决策模型——裁判者亲自聆听当事人的陈述,在此基础上形成心证,再亲自撰写裁决理由。然而,AI辅助的运作逻辑恰恰相反:它以“数据输入—概率输出”为基本模式,不存在真正意义上的“聆听”,也无法“亲历”庭审过程。当裁判者将裁决理由的撰写或法律检索的工作委托给AI时,便出现了一个无法回避的悖论:裁决理由的文字虽然通顺、格式虽然规范,但其所承载的论证并非出自裁判者的亲手构建,而是由算法根据统计概率“补全”而来。这使得“审议赤字”成为AI时代裁判的一个深层次隐患。有学者深刻指出:“审议赤字不仅关乎理由的可解释性,更触及裁判的正当性与可问责性的根基——当裁判者不能完整说明裁决的形成过程时,当事人何以信服?”这一赤字恰恰源于AI决策的“黑箱”本质:即便裁判者最终签署了裁决书,他也难以向当事人完整回溯和解释裁决理由的生成逻辑,因为AI内部的价值权重分配和推理节点是隐形的。
4.裁决失效的机制:程序瑕疵说。AI过度使用所导致的裁判失效,在法理上应被定位为何种性质的瑕疵?从ARIHQ案来看,法院并未将撤销焦点放在“事实认定错误”这一实体问题上,而是从程序公正的角度切入,将AI幻觉问题纳入“仲裁程序违反当事人约定”或“仲裁程序与法律基本原则相悖”的撤销事由范畴。这一定性具有重要的策略意义:事实认定错误通常受裁决终局性原则的限制,法院对实体问题的审查空间极为有限;而程序公正问题则属于法院在审查仲裁裁决时的高权重审查事项。将AI过度使用定性为程序性瑕疵,本质上是将其从“仲裁员可能犯的错误”提升至“仲裁程序整体失效”的高度——这正是撤销裁决而非发回重审的根本法理依据所在。
三、律师与法律从业者的专业责任:技术辅助不豁免监督义务
AI幻觉问题不仅困扰裁决者,也同样困扰着在裁决程序中提交材料的律师和当事人。当法律从业者依赖AI起草法律文书、检索案例或撰写代理意见时,因未对AI输出内容进行核验而导致的后果,正在成为职业责任追责的新领域。
1.专业注意义务在AI时代的内涵变化。传统上,律师的专业注意义务要求其在向法院提交材料时必须确保所援引的法条、判例和事实陈述的准确性与真实性。这一义务在AI时代并未因技术工具的介入而有所减损。相反,正如我国司法实践中多份判决所明确指出的,“技术辅助不豁免专业责任”——律师使用AI工具时,仍需对输出内容的真实性承担最终责任。换言之,AI可以辅助律师工作,但法律职业核心责任——包括事实核查、法律论证和职业道德——仍然不可转移。
2.国内典型案例的再审视:北京通州法院案。引言中提及的北京通州法院股权代持纠纷案,是检验律师核验义务的试金石。该案中,原告律师杨某向法院提交了两份“参考案例”:一份标注为上海市第一中级人民法院(2022)沪01民终12345号——该案号真实存在,但真实案件系民间借贷纠纷,与律师书面意见中描述的“股权代持纠纷”事实完全不符,两份裁判文书的内容“风马牛不相及”;另一份则标注为最高人民法院的判例,同样无法在正规数据库中查证其所述内容。法官经严格核查后确认,这两份案例均为AI虚构。
这一行为的严重性在于:律师明知(或应知)案号与案件性质的对应关系是法律文书的基本要素,却未经任何核验便将AI生成的虚假内容作为正式法律意见提交法院。承办法官在判决书中明确提出批评:“希望原告代理人引以为戒,在向法院提交参考案例、法条时,应当进行检查和核验,确保内容的真实性和准确性,不得放任人工智能模型生成或者编造虚假信息扰乱司法秩序。”该判决书将批评意见正式写入裁判文书,成为国内首例对律师使用AI生成虚假案例提出正式批评的司法文件。该案一审判决后,双方均未上诉,判决已生效。
该案的法理意义远不止于个案警示。它清晰地表明:律师对AI输出内容的核验义务已从伦理倡导上升为司法明确要求的职业责任。律师未能履行这一义务,即使未造成裁判错误(本案法官因及时核实而避免了错误),仍可构成违反诚信诉讼原则的行为,法院有权以“批评”方式予以制裁。若情节更严重(如多次提交、故意隐瞒AI使用、导致裁判错误等),则可能触发《民事诉讼法》第114条关于伪造重要证据的处罚条款,甚至构成职业纪律处分的事由。
国际实践中的制裁案例。在国际层面,加拿大法院对律师未核查AI输出内容的职业责任问题态度更为严厉。在安大略省高等法院的Ko v. Li案(2025 ONSC 2766)中,一方律师在提交的文件中援引了AI幻觉生成的虚构判例。法院认定该行为构成严重违规,直接将该方当事人的申请材料从案件卷宗中移除。在Specter Aviation案(2025 QCCS 342)中,律师的文件中包含八处由AI幻觉生成的引用,法院依据魁北克《民事诉讼法典》第342条对当事方处以5,000加元罚款,认定其构成“重大违约”。
职业伦理制度回应:行业指引的出台。面对日益增多的AI执业风险,法律行业开始从制度层面作出回应。宁夏律协于2026年3月发布了《律师使用生成式人工智能指引》,从多个维度规范律师AI使用行为,包括要求建立内部管理制度、规范工具选型、开展专项培训、强化监督预警,筑牢行业AI应用合规防线。中国国际经济贸易仲裁委员会同样发布了《关于在仲裁中使用人工智能技术的指引(试行)》,明确“仲裁庭对在人工智能工具辅助下作出的仲裁裁决承担责任”,从制度层面厘清了技术应用与裁判责任之间的边界。这些制度文件的共同指向是:AI可以作为提升效率的辅助工具,但法律从业者的专业责任——包括核查义务、保密义务和忠实义务——始终不可转移。

四、法官与仲裁员的独立判断义务:人机协作中的责任不可让渡
对于法官和仲裁员而言,AI辅助带来的不仅是效率的提升,更是根本性的责任挑战。在“人机协作”的新范式下,裁判者的独立判断义务绝非空洞的口号,而是具有明确法律后果的制度要求。
1.司法裁判“属人性”的不可替代性。司法裁判本质上是一项“属人”的活动——它要求裁判者基于对案件事实的亲历感知、对证据的直观印象、对当事人陈述的直接体察,运用专业知识和人生经验作出判断。这一过程的诸多要素(如庭审中的语气语调、证人作证时的神态举止、当事人在法庭上的情绪变化)是AI根本无法“感知”的。更重要的是,司法裁决在许多场合涉及自由裁量——法官需要权衡社区价值观、当事人的主观特征以及各种可能相关的背景情况,作出符合个案的公正判断。人工智能算法按照预设逻辑运行以达到预定结果,这种僵化性与自由裁量的决策本质上不相容。正如《人民法院第六个五年改革纲要(2024-2028年)》所强调的,“作出司法裁判和承担司法责任的只能是法官,坚决守住法律、伦理和安全底线”。最高人民法院亦明确指出人工智能在司法应用中的五项基本原则,其中“辅助审判原则”居于核心地位,AI“运行结果仅供参考,司法责任最终由裁判者承担”。
2.人机协作中的责任分配:未履行核验义务的“过错”认定。仲裁员在使用AI后,是否履行了对AI输出结果进行“合理性审查”的注意义务,是判断其是否构成“过错”的关键标尺。这就意味着,仲裁员不能仅以“AI这样建议的”作为其裁决的正当化理由,而必须对AI的工作成果进行独立的实质审查。ARIHQ案中,法院认定仲裁员不仅实质性依赖了AI生成的虚构判例,还放弃了核验AI输出结果的义务——“All of the doctrinal and jurisprudential references that the arbitrator relies on are nonexistent and ‘hallucinated’”。在这一事实认定基础上,法院得出结论:仲裁员将裁决权委托给了AI,仲裁程序的完整性因此受到根本性损害。
3.人机“合谋”风险:算法依赖对裁判自主性的侵蚀。即使在仲裁员或法官坚持对AI输出进行审查的情况下,仍存在一种更隐蔽的风险——人机“合谋”。有学者精辟地指出,在预测性审判逻辑的影响下,人类裁判者存在盲目采纳机器建议的倾向,形成“人机合谋”,裁判自主性在不知不觉中被侵蚀。算法输出的“类案推送”结果或“量刑建议”因其形式上的客观性,往往具有一种特殊的“说服力”——裁判者在面对AI的结果时,可能不自觉地降低了质疑的意愿,反而更加信任机器的“客观”建议。更值得警惕的是,当AI系统的底层算法、训练数据和权重分配处于不透明状态时,裁判者实际上无法真正理解AI为何得出特定结论。这种“黑箱”状态加剧了人机之间不平等的权力关系:AI的决策过程不透明,而法官的最终判断却要向当事人和社会完全公开。法官与仲裁员若不能以充分的核验和独立的理由说明来对冲这一风险,司法权威将受到无形侵蚀。这也意味着,裁判者不能仅以“采纳了AI的结果”为由免责,而必须证明自己已实质性履行了独立判断义务。
4.“算法迷信”对司法权威的消解:裁判者角色异化的深层忧虑。更深层的忧虑在于,“算法迷信”可能从根本上消解法官和仲裁员的实质性角色——当裁判者过度依赖AI时,其角色将从“独立裁决者”异化为“AI输出的审核者”乃至“AI裁决的背书者”。当事人所期待的、由一位具有专业素养和道德担当的人类裁决者来审理其案件的权利,将在不知不觉中被消解,司法公信力亦随之动摇。
五、责任边界模糊导致裁判被撤销的类型化分析
综合以上分析,AI辅助边界不清导致裁判被撤销或发回重审的法律后果,可类型化为以下几种路径:
路径一:AI幻觉导致法律依据虚构,构成程序瑕疵或权力委托(ARIHQ案范式)。此即ARIHQ案的基本情形。仲裁员援引AI虚构的判例作为裁决的核心法律依据,经查证所援引的判例根本不存在。法院从程序公正角度切入,认定仲裁员将裁决权实质性地委托给了AI,且放弃了核验义务,裁决因此被撤销。此路径的关键构成要件是:虚构判例构成裁决推理的核心支柱、“放弃核验义务”的认定、以及将权力委托理论作为撤销的法理基础。
路径二:仲裁员或法官未披露AI使用情况,构成程序违规或当事人知情权侵害。实践中,仲裁员或法官使用AI却未向当事人披露,当该事实在后续程序中被发现,当事人可能主张其知情权受到侵害。在仲裁语境下,根据贸仲《人工智能指引》的规定,当事人有权约定是否及如何在仲裁中使用人工智能技术,仲裁员未披露AI使用情况可能构成对当事人意思自治原则的根本违反。一旦裁决进入撤销程序,法院可能以“仲裁程序与当事人约定不符”为由撤销裁决。
路径三:裁判者因过度依赖AI而丧失独立性,构成对“亲听原则”的根本违反。这一路径较ARIHQ案更为激进:即使AI未产生可验证的“幻觉”(即AI输出的内容本身是正确的),只要裁判者将其裁决权在实质上委托给了AI,亦可能构成对亲听原则的违反。例如,如果法官直接将AI生成的判决理由不加审查地复制粘贴到判决书中,即使判决理由在内容上是正确的,这一行为本身也违背了“裁决者必须亲听”原则——因为当事人并未向AI陈述案情,法院的判决应当体现裁判者自己的理性思考,而非AI的统计输出。此路径的法理根基在于:裁判的正当性不仅来自结果的正确性,更来自裁判者自身的“审议参与”。
路径四:律师提交AI生成虚假材料,导致裁判基础事实错误,进而引发上诉或再审。这一路径在国内司法实践中已有先例。如第三章所述,北京通州法院案中律师提交了AI生成的虚假案例,法官虽及时核实避免了错误裁判,但此类行为无疑增加了裁判错误的现实风险——如果法官未及时发现AI幻觉,则可能据此作出错误的事实认定或法律适用。若裁判生效后发现该问题,则可能触发再审程序。
六、制度回应与风险防范:从个案应对走向体系治理
面对AI辅助边界逐渐模糊所带来的种种风险,法律行业正在从被动应对走向主动治理,形成多层次的制度回应。
国内制度建设:从司法实践指引到行业自律规范。最高人民法院发布的《关于规范和加强人工智能司法应用的意见》确立了五项基本原则——安全合法、公平公正、辅助审判、透明可信、公序良俗,从根本上划定了AI介入司法的制度边界。在仲裁领域,贸仲发布了我国首部《关于在仲裁中使用人工智能技术的指引(试行)》,构建了以当事人意思自治、辅助裁判和诚实信用为三大支柱的规范框架,并于2025年7月18日正式施行。该指引第4.2.2条明确禁止仲裁庭将其决策权让渡给人工智能,第4.2.3条要求仲裁庭独立撰写裁决理由和裁决结果,对裁决书负责。这一系列制度文件表明,我国法律行业正在形成“AI辅助、人主责”的基本共识。
国际制度比较:多元路径的共同取向。在国际层面,各主要仲裁机构均出台或正在制定AI使用指引。英国皇家特许仲裁员协会(CIArb)2025年发布的《国际仲裁中AI使用指引》强调,仲裁员必须保持独立判断并对所有决定负责,“人在回路”理念贯穿始终,表明国际仲裁界在AI治理上形成了高度共识。加拿大联邦法院和各省高等法院则通过判例确立了对AI幻觉问题的严格责任制度,形成了“提交虚构判例可能面临材料被剔除、罚款甚至职业纪律处分”的裁判规则。AAA推出的AI仲裁员模式则走了一条不同的路径——AI仲裁员仅为人类仲裁员起草推荐性裁决,最终裁决仍由人类仲裁员作出且需当事人双方同意。这种多元路径并存格局,恰恰说明AI与法律关系的边界问题尚未形成全球统一的解决方案,各国、各机构都在摸索中前行。
风险防范方案:多层次、全链条的治理体系。第一层面是用户层面的核验义务。无论是法官、仲裁员还是律师,使用AI后均应履行实质核验义务——在权威法律数据库中检索所援引的判例和法条、交叉比对AI输出的内容与原始来源、对AI生成的法律文书进行独立的事实核查和法律论证复验。最高人民法院明确要求“审判人员对错案承担相应责任”,而这一责任的前提就是审判人员是否履行了基本的监督与核验义务。第二层面是机构层面的制度建设。仲裁机构和法院应建立AI使用的透明度制度——要求仲裁员和法官在使用AI时向当事人披露使用情况,确保程序的透明性和可监督性。同时应建立AI辅助裁判的“证据质证机制”,确保当事人有权对AI辅助结论提出质疑和审查。第三层面是技术层面的规范设计。应当要求参与司法裁判的人工智能系统具备基本的可解释性功能,能够清晰展示其运行机理、推理结构和决策权重。同时,应建立独立的司法科技审查机构,对算法设计、数据来源进行持续评估,防止“黑箱”系统侵蚀司法透明度和公正性。
结语:在效率与正义之间寻求平衡
AI辅助法律审判与仲裁,本质上是一场效率与正义之间的权衡。效率固然是司法现代化的重要追求,但正义才是司法制度的灵魂所系。当仲裁员在AI的辅助下撰写裁决理由,当律师依赖AI检索案例和法条,当法院拥抱“智慧司法”以实现现代化转型时,我们不能忘记司法裁判的根基在于“人”的判断——那位坐在审判席上的法官、那位主持仲裁程序的仲裁员,他们的独立判断、专业操守和道德责任,才是司法公正的终极保障。
正如有学者所言:“人工智能系统不应为司法裁判负责,人类法官也不应放弃自己的道德自主,将司法裁判的责任推给机器。在根本上,大语言模型只是裁判辅助技术,既不能、也不应为司法裁判的正义负责。”因此,面对AI带来的变革,我们既不应因噎废食、全盘否定技术的积极价值,也不应盲目乐观、放任技术侵蚀司法的核心价值。正确的姿态应当是在充分认识AI辅助边界的基础上,将技术定位于“辅助者”而非“裁决者”,将人的责任定位于“最终的判断者”而非“AI输出结果的背书者”,将制度设计定位于“透明开放的治理”而非“黑箱盲目的依赖”。唯有如此,AI才能在法律的边疆中真正赋能正义,而非替代正义。
夜雨聆风