想象这个场景:周一早上9点,你打开电脑,发现AI在凌晨3点已经自主审完了47份合同,标注了每份的风险点,并起草了回复草稿。你要做的,只是点一下"确认发送"。
这不是科幻。这是代理式AI(Agentic AI)正在做的事。
2026年3-4月,法律AI领域发生了一次微妙但深刻的位移:Thomson Reuters和Legaltech Hub分别发布报告,行业里开始出现一个新的词——Agentic AI。不是用来描述某个产品功能,而是用来描述一种新的工作关系:AI不再只是等人类发指令,而是自主规划、执行、修正,直到任务完成。
这篇想搞清楚一件事:代理式AI和目前大多数律师在用的AI,本质上有什么区别?法律行业的职业责任框架,跟得上这个变化吗?
一、不是进化,是范式转移
先说清楚概念。
当前大多数律师接触到的法律AI,属于生成式AI(GenAI):你输入指令,AI生成内容,你审查,修改,再让它改。这个模式里,律师始终是主导者,AI是工具。
代理式AI是另一套逻辑。它的工作模式是:
理解任务目标 → 自主规划步骤 → 执行 → 根据反馈修正 → 直到达成目标
这中间,人类只在预设的几个节点出现——不是全程参与,而是抽检。
用一个具体的场景来对比:
GenAI模式(现状):
律师:帮我审一下这份合同第7条的风险 AI:[生成一段分析] 律师:能不能给个修改建议? AI:[生成修改建议] 律师:好,把最终版本整理出来 AI:[输出]
代理式AI模式(进行中):
律师:帮我把这批47份合同的风险都排查一遍,把有重大风险的整理出来,直接给客户发一版风险报告。 AI:[自动拆解任务 → 并行读取47份合同 → 识别条款风险 → 起草报告] (中间只在2个预设节点暂停,等待确认方向) AI:[输出完整风险报告]
这不是效率问题。这是谁来承担过程责任的问题。
二、当前进度:不到20%在用,50%在规划
Thomson Reuters Institute在2026年4月9日发布的《2026 AI in Professional Services Report》里,给出了一组关于代理式AI的精确数据:
| 不足20% | |
| 约50% | |
同期的Legaltech Hub报告则给出了另一组数据:截至2026年2月26日,其目录中已有299个法律AI代理产品被收录。
也就是说:产品已经有了,市场在规划,广泛采用尚未到来——但窗口期不会太长。
有意思的是从业者的态度分布:
| 51% | |
| 47% | |
| 19% | |
| 22% |
51%兴奋、19%恐惧。这个数字分布说明什么?说明大部分人还没想清楚它意味着什么。
三、两个真实的担忧
第一个担忧:出了问题,谁负责?
这是最直接、也是最被回避的问题。
当AI独立完成了一份合同的风险评估并起草了回复草稿——它完成了工作,但律师在哪个节点"介入"了,这个介入是实质性的,还是只在形式上?
Thomson Reuters报告中引用了一位美国律所律师的原话:
"机器在做事情上有如此大的自主权,并可能代表我采取行动,却没有非常具体的审查,那是另一回事。"
这句话里的"那是另一回事",准确捕捉了法律行业面对代理式AI的核心不安:职业责任体系从来没有为"AI在半夜自主行动、律师第二天早上才审结果"这种情形设计过。
第二个担忧:律师还能"学会"什么?
Legalweek 2026上的讨论提出了一个更长远的问题:当AI不只是帮你生成内容,而是替你执行任务,律师在执行过程中积累判断力和经验的机会,也在减少。
这和GenAI带来的担忧不同。GenAI压缩的是"生成初稿"的时间;代理式AI压缩的是"在过程中学习"的机会。如果初级律师的成长路径里有很大一部分来自"反复做这件事"的经验积累——代理式AI正在同时压缩这个积累。
四、法律行业现在真正缺的是什么
Legalweek 2026上的一句话值得单独提出来:
"AI不会消除问责制——它会集中问责制。"
这句话的意思是:AI让很多事情变得更简单,但责任并没有因此消失,只是集中到了更少的人手里。
代理式AI放大了这个效应。GenAI时代,律师可以逐条审查AI的输出——这个审查过程本身,就是在承担责任。代理式AI时代,如果律师只在预设节点才出现,他实际上是在事后追认AI的工作,而不是事前把关。
这对现有的职业责任框架提出了真实挑战:
美国各州律师协会尚未出台关于代理式AI使用的明确指引。ABA的指导意见目前集中在GenAI阶段,代理式AI的独特问题——自主行动边界、AI行为记录留存、事后追认效力和职业纪律——都在等待填补。
这意味着:现在部署代理式AI的律所,实际上在用一套没有明确规则的框架运行。
五、作为法律从业者,你现在可以做什么
这个话题很容易变成"未来预测"然后停在半空。说三条当下有用的:
- 区分"AI辅助"和"AI代理"这两个概念
这是最基本、也最重要的一步。你所在的律所或法务团队,如果正在评估新的AI工具,先问清楚:它是在帮你生成内容,还是在替你完成任务?这两个模式需要完全不同的管理框架。 - 建立代理式AI的"人工介入节点"清单
代理式AI不是不能用,但需要明确:在哪些节点,AI必须停下来等律师确认?
这个清单不应该是技术文档,而应该是:法律判断节点——比如,AI可以自动识别合同风险,但"这份合同是否需要发给外部律所复核"必须由律师决定;AI可以起草报告,但报告发出前必须经有执照的律师审阅。 - 关注所在州的律师协会动态
目前ABA和各州律师协会正在讨论代理式AI的指导意见,有几个核心议题会直接影响执业规范:AI行为的记录留存要求、AI决策的律师审核深度标准、外部律所使用代理式AI时的客户告知义务。
这些议题目前没有统一答案,但它们正在形成——关注这个过程,就是在为即将到来的变化做准备。
回到开头的那个场景:周一早上9点,你打开电脑,AI已经审完了47份合同。
这个场景实现的那一天,法律行业的职业责任框架,应该已经准备好了回答这个问题:是谁,在什么时候,为这个结果负责?
现在还没有这个答案。但它是法律AI浪潮里,下一个必须解决的问题。
觉得这个框架值得思考,转给正在考虑引入AI的法律团队管理者。
数据来源
Thomson Reuters Institute,《2026 AI in Professional Services Report》,2026年4月9日,样本覆盖全球法律从业者 Legaltech Hub(LTH),《AI Agents in Legal Map: March 2026》,2026年3月5日,统计截至2026年2月26日,共299个法律AI代理产品 Jeff Reihl(LexisNexis),《What Legalweek 2026 Revealed About the Future of AI in Legal》,2026年3月23日
夜雨聆风