乐于分享
好东西不私藏

华尔街顶级律所AI翻车:当机器开始替律师"编判例"

华尔街顶级律所AI翻车:当机器开始替律师"编判例"

华尔街顶级律所AI翻车:当机器开始替律师”编判例”

直接聊这件事吧。

苏利文·克伦威尔(Sullivan & Cromwell),华尔街最老牌的律所之一,客户名单上有唐纳德·特朗普。上周,这家百年老店的联合主管Andrew Dietderich给联邦法官Martin Glenn写了一封道歉信。信的措辞非常卑微——”我们对所发生的事情深感遗憾”。

什么事情呢?S&C向曼哈顿联邦破产法庭提交了一份动议文件,里面引用的法律案例,是AI编的。

不是引用错误,不是理解偏差,是编的。有的案例被错误概括,有的张冠李戴,还有一个引用的案例压根就不存在——从来没有过这么个案子。发现这些问题的不是法官,不是S&C自己,而是对手律所Boies Schiller Flexner的律师们。他们在这份动议里挨个核查引文,发现了一地鸡毛。

想想这个画面。顶级律所的律师站在法庭上,引用着不存在的判例,对面律所的律师一边翻资料一边心里暗笑——这跟考试的时候发现同桌在抄一个不存在的参考书差不多。

Dietderich在道歉信里拼命强调S&C有”严格而清晰的AI使用政策”,包括针对AI工具在法律工作中的培训要求。但问题是,这些政策在准备动议的时候没有被遵守。换句话说,制度是有的,执行是没有的。这大概是人类组织最经典的bug——规则写在纸上,但人不一定照着做。

消息人士告诉英国《金融时报》,S&C购买的是OpenAI ChatGPT的企业版许可。企业版,意思是应该有更高的数据安全和合规标准。但再高级的版本,如果你把AI生成的文本直接塞进法律文件里不核查,那就是给自己挖坑。AI的大语言模型本质上是概率机器——它根据上下文预测下一个最可能出现的词。它不知道什么是”真实案例”,它只知道什么是”看起来像案例的文本”。

说白了,ChatGPT不懂法律,它只懂语言。

这个事件放在更大的背景下看更有意思。过去两年,律师被AI坑的案例已经不少了。Morgan & Morgan这种大所也翻过车。有些法官开始变得很有创意——Cozen O’Connor律所的两个律师被发现在文件里留了AI编造的内容后,法官给了他们两个选择:接受处罚,或者给自己法学院院长写封信解释自己是怎么搞砸的。写给自己曾经的老师,承认自己犯了最低级的错误。我猜这对一个律师的职业自尊心打击可能比罚款还大。

当然咯,从交易员的视角来看这件事,本质是个信任锚定问题。律所的价值主张是什么?是专业、严谨、可信赖的法律服务。客户付几百美元一小时的咨询费,不是为了让律师把ChatGPT的输出复制粘贴到法庭文件里。当这个信任锚被打破的时候,品牌溢价就会迅速蒸发。

S&C这件事之所以值得说,不是因为它是个孤立事件,而是因为它代表了一个更大的趋势:AI工具正在从”辅助”变成”替代”,而人类的审核环节正在变成瓶颈。律师太忙了,懒得核查AI的每一个引文。但法律的容错率是零——一个假案例就够毁掉一份动议、一个案子、甚至一个律所的声誉。

更有趣的是这件事背后的利益博弈。S&C一边在法庭上被对手抓包,一边赶紧提交了”修正版”文件。但修正版能不能弥补原件造成的信任损失?法官Glenn到目前为止还没有宣布制裁措施,但显然他对S&C的信任度已经打了个折扣。在破产法庭这种高度依赖法官自由裁量权的场景下,失去法官的信任比输一个案子严重得多。

说到底,这件事的核心教训其实很简单:AI是个工具,不是个同事。工具出了问题,责任永远在使用者。你可以怪锤子不好用,但你不能怪锤子砸到了你的手指。

只不过,当这个”锤子”一年比一年更像人的时候,这个界限会越来越模糊。那时候才是真正有意思的时候。

再说吧。