又到周末,邮箱照例被各类“AI+法律”的邀请函占据。有趣的是,去年此时这里最热闹的还是“元宇宙法律合规”研讨会通知。看着那些熟悉的主讲人头衔从“元宇宙专家”悄然变成“AI法律战略家”,让人不禁思考:在法律科技概念快速迭代的今天,什么才是专业人真正应该守护的?
一、Mata v. Avianca案:一次价值5,000美元的职业伦理课
案件基本信息
案件名称:Mata v. Avianca, Inc.
案号:1:22-cv-01461 (PKC) (S.D.N.Y.)
主审法官:P. Kevin Castel
裁决日期:2023年6月22日
涉案律师:Steven A. Schwartz, Peter LoDuca (Levidow, Levidow & Oberman P.C.)
核心事实还原
2023年春季,原告律师Steven A. Schwartz在代理一起航空旅客伤害案时,使用ChatGPT进行法律研究。系统生成了六个看似完美的判例,包括“Varghese v. China Southern Airlines”等。当对方律师质疑这些判例的真实性时,Schwartz再次询问ChatGPT,得到坚定答复:“是的,这些案例可以在Westlaw和LexisNexis中找到。”
然而,这些判例从案号到判决理由完全虚构。最讽刺的是,ChatGPT甚至为虚构的“Varghese案”编造了具体引证:“925 F.3d 78 (2d Cir. 2019)”——而第二巡回法院当年并无此判决。
法官的“技术时代责任宣言”
P. Kevin Castel法官在制裁令中明确写道:
"Lawyers are officers of the court and have a duty of candor to the court. The use of artificial intelligence does not relieve lawyers of their duty to ensure that their submissions to the court are accurate." (Order at 6)
法官进一步解释:“这些生成式系统通过识别训练数据中的模式生成文本,而非检索真实文件。律师必须了解所用工具的基本特性与局限。”
具体制裁措施
对两位律师各处罚款5,000美元
支付对方律师相关费用
要求在未来所有文件中提交宣誓书,确认“要么未使用AI,要么已完成全面人工核查”
向所有案件客户书面说明违规情况
二、从个案到制度:全球法律界的协同规范行动
纽约州律师协会的快速响应
案件裁决后仅37天,纽约州律师协会发布第1312号正式伦理意见,明确要求:
"A lawyer who uses AI retains the ultimate responsibility for the work product. The duty of competence requires understanding the technology's capabilities and limitations." (NYSBA Formal Op. 1312, July 2023)
加州律师协会的明确指引
在2024年1月发布的 《Practical Guidance for the Use of Generative Artificial Intelligence in the Practice of Law》 中,加州律师协会信托账户保护与职业道德委员会明确要求:
"Lawyers must personally examine and verify any AI-generated content, especially legal citations, before relying on it or submitting it to a court or client." (Section 1)
英格兰及威尔士律师协会的严格立场
在2023年11月发布的指引 《The Use of Generative Artificial Intelligence in the Practice of Law》 中,该协会明确规定:
"Output from generative AI should be treated as if it had come from a human source, meaning that solicitors remain personally accountable for its accuracy and appropriateness." (Paragraph 1.2)
新加坡最高法院的创制性标准
在2024年4月发布的 《Guidance on Use of Generative Artificial Intelligence in Legal Practice》 中,新加坡最高法院设定了最为严格的标准:
"Lawyers have an overriding and non-delegable duty to ensure the accuracy of any content generated by or with the assistance of GenAI technology that is included in any document filed in court." (Paragraph 5)
香港律师会的责任重申
在2024年1月发布的 《Practice Direction P.4/24: Use of Artificial Intelligence in Legal Practice》 中,香港律师会明确:
"A solicitor remains primarily responsible for all work product, regardless of whether AI tools are used in its creation. This responsibility cannot be delegated to technology." (Paragraph 4.2)
三、制度回应的共同特征与差异
责任主体的绝对一致性
从加州到新加坡,从伦敦到香港,全球主要司法辖区的监管机构展示出罕见的共识:律师是法律服务的最终责任主体,AI工具的使用不改变、不减轻、不转移这一基本责任。
核查义务的梯度刚性
加州:“亲自审查核实”(personal examination and verification)的积极义务
英格兰:“视为本人产出”(treated as if it were your own work)的法律拟制
新加坡:“最高且不可委托”(overriding and non-delegable)的职业伦理最高标准
香港:“最终责任不可委托”(responsibility cannot be delegated)的原则重申
监管思路的地域特色
普通法系(纽约、加州、英格兰、新加坡、香港):强调判例法与职业伦理的延续性
大陆法系(德、法、日):更多从数据保护与消费者权益角度进行规制
混合法域(新加坡、香港):兼具普通法传统与亚洲特色的创新监管
四、权威媒体评价:从个案到行业的深度审视
《纽约时报》的经典评论
在2023年6月8日题为“The ‘ChatGPT Lawyer’ Isn’t a Joke Anymore”的报道中,记者Benjamin Weiser指出:
"The case of the ChatGPT lawyer is a sobering lesson for the legal profession. It reveals the perils of treating artificial intelligence as a black-box oracle rather than a tool that requires careful oversight."
英国《金融时报》的专业分析
法律专栏作家Catrin Griffiths在2023年6月评论中写道:
"The Mata case marks the end of the AI honeymoon period in legal services. The profession must now move from asking 'can we use AI?' to 'how do we use AI responsibly?'"
《美国律师》杂志的行业观察
据该杂志2023年9月发布的调查报告显示:
"More than 70% of law firms with 100-plus lawyers have updated their AI policies following the Mata ruling, implementing mandatory verification protocols."
五、深层启示:在工具进化中守护专业内核
验证的真实成本
某国际律所内部评估发现,在严格要求下,使用通用AI进行复杂研究的“净时间节省”可能不足15%。原因很简单:对每个AI生成的判例进行溯源核查,所需时间常常超过传统研究。
专业判断的完整性危机
法律工作的核心价值在于不完整信息中的独立判断。当律师习惯接受AI的“标准答案”,可能无形中让渡了专业判断所需的完整思维过程——检索、分析、比较、质疑。
制度回应的滞后性
从Mata案(2023年6月)到主要司法辖区的正式指引(2023年11月至2024年4月),监管响应平均滞后6-10个月。这期间,大量律所处于“政策真空期”,依靠临时内部指引运作。
结语:在变化中守护不变的核心
这个周末,当我们再次收到“AI法律专家速成”邀请时,不妨重温Castel法官的那段判词:“New tools may change how we work, but they do not change why we are here—to serve the cause of justice with competence and integrity.”
有趣的是,如果我们追踪一些“AI法律专家”的职业轨迹,会发现一个有趣现象:同一位专家,2023年主讲“AI合规”,2022年是“元宇宙法律”,2021年讲“区块链”,2020年谈“数据隐私”。技术的风口在不断变化,但专业精神的本质从未改变:在每一个技术浪潮中,都能保持清醒判断,坚守对客户的承诺,承担那些算法无法分担的终极责任。
夜雨聆风