乐于分享
好东西不私藏

微软把「法律 AI Agent」塞进了 Word!律师们的第一反应:你敢动我的红线记录?

微软把「法律 AI Agent」塞进了 Word!律师们的第一反应:你敢动我的红线记录?

导读
【导读】微软刚刚放出大招:一个专门给法律团队设计的 AI Agent,直接嵌入 Word 文档。它能按 playbook 逐条审合同、保留修订痕迹、给每条建议附上原文引用。但微软自己也很清楚——律师最怕的从来不是”AI 不会写”,而是”AI 乱改还看不出改了什么”。目前这个产品仅面向美国 Frontier 计划成员开放,背后团队来自被微软收编的合同审阅创业公司 Robin AI。一场关于”谁能控制法律工作流入口”的争夺战,刚刚打响。

一个很反直觉的产品发布

5 月 1 日,The Verge 记者 Tom Warren 扔出一条消息,标题只有一句话:

“Microsoft wants lawyers to trust its new AI agent in Word documents.”

「微软想让律师相信,它在 Word 里的新 AI Agent 是靠谱的。」

▲ The Verge 官号发出的种子推文,9300+ 次浏览

注意这个措辞。微软没有说”我们的 AI 比律师更聪明”,也没有说”AI 将取代法律团队”。它说的是——请你们相信我。

这就很有意思了。

过去两年,AI 行业最不缺的就是”颠覆一切”的宏大叙事。但微软在法律这条线上,态度出奇地克制。它的核心卖点,竟然不是效率,而是信任

▲ Tom Warren 的补充推文,近万人浏览:Legal Agent 处理文档编辑、谈判历史、复杂文档,加速”可重复任务”

为什么偏偏是法律行业?

要理解这件事的分量,得先搞清楚一个背景:法律行业对 AI 犯错的容忍度,可能是所有行业里最低的。

营销团队写了一段有瑕疵的 AI 文案,改一改就完了。销售用 AI 生成的邮件里有个数据不对,大不了下次注意。

但律师呢?

一旦在正式流程里放进了错误的条款理解、错误的红线修改、错误的法律建议,后果可能是:合规风险、谈判损失、审计压力,甚至执业资格都要搭进去。

2023 年那个轰动全球的案例还历历在目——纽约律师 Steven Schwartz 用 ChatGPT 写诉讼摘要,结果 AI 凭空捏造了六个根本不存在的判例,法官当庭制裁。这件事成了全球律所的反面教材。

所以当微软说”想让律师相信”的时候,它面对的,是一整个行业深入骨髓的不信任。

微软到底做了什么?

The Verge 的报道里,有一段微软高管 Sumit Chauhan 的原话,几乎就是这次产品的灵魂:

“Instead of relying on general AI models to interpret commands, the agent follows structured workflows shaped by real legal practice, managing clearly defined, repeatable tasks like reviewing contracts clause by clause against a playbook.”

「它不靠通用模型自由理解命令,而是按真实法律实践塑造出的结构化流程,处理那些定义清晰、可重复的任务——比如按 playbook 逐条审合同。」

▲ The Verge 正文页:微软 Legal Agent 来自前 Robin AI 工程师团队

把这段话拆开看,信息量极大:

第一,微软刻意跟”通用大模型”拉开距离。它在说:我做的这个东西,跟你在 ChatGPT 里随便问问完全是两回事。

第二,关键词是 structured workflows(结构化流程)。法律团队的核心工作模式就是流程驱动——按模板审、按红线改、按版本回溯。微软选择顺着这个逻辑做,而不是让 AI 自由发挥。

第三,落点非常具体:clause by clause against a playbook。就是按法律团队既有的条款库、风险红线、审查模板,逐条比对。这比”AI 帮你写一版合同初稿”要实际得多,因为大多数法务团队的核心工作根本不是从零起草,而是在已有文本里做风险识别、条款比对、谈判修订

真正让律师在意的:别把我的修订痕迹搞丢

如果你跟做法务的人聊过,你会知道一件事:律师不是从空白页开始工作的。

他们永远在已有文档、来回红线、版本往返里工作。一份合同可能经过甲乙双方律师十几轮修改,每一处 tracked change 都是谈判历史的一部分。

所以 The Verge 报道里这句话,可能比任何技术参数都重要:

“The Legal Agent can work with existing documents that have tracked changes, and analyze agreements and contracts to ‘spot risks and obligations.'”

「它能直接处理带跟踪修订的现有文档,还能分析协议和合同,识别风险与义务。」

这意味着微软至少在尝试解决法律 AI 最核心的信任难题:你可以帮忙,但不能把我的审阅痕迹冲掉。

底层引擎:确定性算法,不靠 LLM 即兴发挥

法律科技媒体 Artificial Lawyer 的报道进一步揭开了技术细节。

▲ Artificial Lawyer 推文:法律科技垂直媒体把这件事当成行业大事报道

微软高管在官方博客里写道:

“The agent applies edits in the document through a purpose-built insertion algorithm… The agent’s redlining engine understands the structure of a Word document, not just visible text.”

「这个 agent 通过专门设计的插入算法在文档内完成修改……它的红线引擎理解的是 Word 文档的结构,而不只是可见文本。」

还有一句更关键的:

“From there, the agent applies a deterministic resolution layer over the edits… instead of relying on an LLM to generate every revision directly.”

「它在编辑上叠加了一个确定性解析层……不靠大语言模型直接生成每一处修订。」

这三句合在一起,能看出微软在解决一个非常具体的工程问题:

Word 文档不是纯文本。法律文档里有列表、表格、格式、脚注、批注、修订痕迹。如果只是让大模型吐一段新文字再粗暴覆盖,体验会很差,可信度更会崩。

所以微软在强调:底层编辑引擎是确定性的、结构感知的,不靠 LLM 即兴创作。

翻译成律师能听懂的话就是:这个工具不会莫名其妙重写半页,不会把你的红线结构搞坏,不会把版本历史冲掉。

给引用、留出处:微软在补”可核验性”

Artificial Lawyer 还提到一个关键能力:

“It also provides citations that link directly to the source language, so reviewers can quickly verify responses.”

「它还会给出直链原文的引用,方便审阅者快速核验。」

这一条对法律行业来说至关重要。律师真正怕的不是”AI 提一个建议”,而是:

  • 这个建议根据什么来的?
  • 你改的这一段对应原文哪里?
  • 你说这是风险条款,证据呢?

如果 citation 真能做到直链 source language,它至少能把工作模式从”盲信 AI”拉回到”人类律师快速核验 AI 的提示”。

▲ Artificial Lawyer 正文:详细披露了 Legal Agent 的技术架构和 Robin AI 背景

背后的人:Robin AI 前团队

The Verge 的副标题直接点明了另一个重要背景:

Microsoft’s Legal Agent comes from the work of former Robin AI engineers.

Robin AI 曾经是一家专做 AI 合同审阅的创业公司。微软把这个团队收编进来,意味着 Legal Agent 不是 Office 团队拍脑袋做的泛用功能,而是吸收了法律合同审阅这条线上原有的行业经验。

这个细节也解释了为什么这个产品在法律流程控制上做得这么细——因为做它的人,本来就是干这个的。

有人已经在喊”应该立法禁止”

当然,不是所有人都买账。

Tom Warren 的推文下面,有用户直接写道:

“I would not be opposed to laws with hefty penalties and disbarment for any lawyer or aide caught using an AI in a legal document or proceeding.”

「我赞成立法,对任何被发现在法律文件或诉讼程序中使用 AI 的律师或助手,施以重罚并吊销执照。」

▲ 用户 @ElsonsoJannus 的回复:赞成对法律 AI 使用者施以重罚

还有人搬出经典反问:

“What could go wrong?”

并附上了 2023 年”律师用 ChatGPT 被法官制裁”的链接。

这些反应虽然不是高赞大贴,但足够说明一件事:律师和围观者的第一反应,从来不是惊叹效率,而是先想到灾难案例、责任归属和失控风险。

微软自己也没说”请放心大胆用”

值得注意的是,微软 Marketplace 上这个产品的页面里,有一行免责声明:

“This product does not provide legal advice.”

「这不是法律意见服务。」

Artificial Lawyer 还引述了另一段:

“AI-generated content may be inaccurate. Users are solely responsible for reviewing, verifying, and deciding whether to rely on any output before taking action.”

「AI 生成的内容可能不准确。用户需自行审阅、核验,并决定是否依赖任何输出。」

两层免责声明一起看,结论很清楚:

微软相信它能进入法律工作流,但微软没说它能替律师承担责任。最终拍板的人,还是律师自己。

真正的战场:谁控制法律 AI 的入口?

这件事还有一个容易被忽略的维度。

法律科技媒体 Artificial Lawyer 有一句评价非常精准:

“99% of legal work is done in Word.”

这句话虽然是媒体判断,但它点中了这个产品最大的战略价值。

想想看——合同审阅在 Word,红线谈判在 Word,版本往返在 Word,内外部协作很多时候还是围着 Word 转。

一旦微软能把”法律 Agent”牢牢焊在 Word 内部,它抢的就不是一个插件市场,而是法律 AI 的默认入口。

而且这件事还有竞争背景:Artificial Lawyer 特别提到,微软这波动作发生在Claude 推出 Word 插件之后。也就是说,Anthropic 和其他通用 AI 厂商已经开始往法律工作流里打了。

微软的回应很直接:你们想来 Word 里抢地盘?对不起,Word 是我的。

但目前,这更像一场心智攻势

话说回来,微软目前给出的所有公开信息里,还缺几样对律师最有说服力的硬证据:

1.大规模公开 benchmark——citation 准确率到底是多少? 2.第三方独立评估——有没有律所之外的机构验证过? 3.不同合同类型、不同法域下的错误率对比4.真实律所长期使用后的案例和数据

加上它目前只面向美国 Frontier 计划成员开放,还远远没有到”全面普及”的阶段。

所以现在这件事的定性更像是:微软已经把炮弹装好了,开始对法律行业做心智战,但律师还没有真正被说服。

这件事为什么重要?

微软这次做的事情,其实远远超出了”给 Word 加个 AI 按钮”的范畴。

过去两年,Copilot 的印象一直是”什么都能帮一点,但在高风险场景里不敢真用”。Legal Agent 的出现,意味着微软的 agent 战略正在换挡:从”给每个人一个泛用 AI 助手”,变成”把可模板化的专业工作流,一段段塞回原生软件里”。

法律行业会成为检验这条路线是否走得通的关键考场。

因为如果连律师——这个地球上对准确性、可追责性、版本控制要求最严苛的职业群体——都开始把 AI Agent 放进真实工作流,那就说明:agent 不只是 demo 里的花活,它真的能进入严肃生产环境。

反过来,如果法律行业最终还是不买账,那也是一个很有价值的信号:再精美的工程,也未必能跨过”信任成本”这道坎。


— END —

— END —