LegalnAI 日报 · 2026年4月19日 · 第11期
今日速览
[国内]
❶ 杭州互联网法院:用户诉 AI 平台"履行承诺赔偿 10 万"被驳回——AI 不具民事主体资格,自动生成的赔偿承诺不构成平台意思表示;但平台对明显错误信息若未尽纠错义务,仍需按过错责任承担
[国际]
❷ 美国内布拉斯加州最高法院:律师提交的上诉状书 63 处引用中 57 处存在问题,院长签发无限期停执令——当事人在庭审被质问两月后书面承认用 AI 起草
❸ 微软 Copilot 推出法律专项功能:合同修订追踪(Track Changes)上线,与 Anthropic 4 月发布的 Claude for Word 在 Microsoft Word 内部形成直接竞争
🔍 AI监管与合规

杭州案:AI 无民事主体资格,赔偿承诺不约束平台
中国 据央广网 2026-04-16 报道据央广网 4 月 16 日报道,杭州互联网法院于今年 1 月审结了一起以 AI 生成内容为焦点的服务合同纠纷:用户向某 AI 平台询问高校相关信息,AI 给出错误答案;用户指出问题后,AI 不仅坚持原答案,还自动生成一条承诺——"若内容有误,愿赔偿 10 万元"。用户截图为证起诉平台,主张按该承诺赔偿。
法院最终没有支持该赔偿主张,但论证路径值得法律人细读。
法院核心判断:第一,AI 不具备民事主体资格,不能以自己的名义作出"意思表示"(民法上指当事人向外界表达的、足以引发法律效果的意志行为——签合同、作承诺等均属此类);第二,AI 自动生成的赔偿承诺不构成服务提供商作出的要约,平台不受该承诺约束。一句话概括:AI 说的话,不等于公司说的话。
但判决并未让平台完全免责。法院同步明确:AI 幻觉引发的侵权纠纷适用过错责任原则——平台若对明显错误信息未尽提示或纠错义务,仍需承担相应责任。责任基础不是"AI 许诺了什么",而是"平台在提供服务中疏于管理"。
这是国内较早一批以"AI 赔偿承诺"为争议焦点的司法判决,为 AI 生成内容与服务提供商法律责任的边界划分提供了具体参照。
**影响:**★★★★☆ 为国内 AI 服务平台用户协议条款设计及 AI 生成物责任分配提供直接司法参照🔗 来源:央广网 · 新浪财经
内布拉斯加律师 Greg Lake:63 处引用 57 处有问题,被无限期停执
美国 2026-04-164 月 16 日,内布拉斯加州最高法院院长签署一份一页纸命令,将奥马哈律师 Greg Lake 无限期停止执业资格。Lake 没有对抗该命令——此前他已书面承认用 AI 起草了涉案状书,并称之为"严重的判断失误"。
事件源于今年 2 月。Lake 在一起离婚上诉案中向最高法院提交状书,庭审中法官开始提问时即发现引用问题。对方律师随后清点状书 63 处引用,发现 57 处存在问题,其中 20 处为完整的 AI 幻觉——引用的案例根本不存在。法院启动纪律程序;4 月 9 日,州纪律委员会建议临时停执;Lake 当时仍否认;两天后他提交书面陈情,第一次承认了 AI 的参与。
院长未等纪律听证程序走完,直接签发了停执令。
这是美国境内因 AI 幻觉引发律师执照问题中处置速度较快的案件之一。2026 年第一季度以来,美国法院已就 AI 幻觉问题开出多起高额罚款、多名律师面临吊照或停执,但大多数案件需经历数月纪律程序。本案较特殊之处在于:当事律师在庭上被法官当场质问、经历两个月否认后,才在自己的陈情书中认账——这种"AI 代劳 + 知情不报"的组合被作为加重情节考量。
**影响:**★★★★☆ 执业资格处分中较严形式之一;确立"AI 代劳 + 知情不报"的加重情节逻辑🔗 来源:WOWT News · Nebraska Public Media
🛠️ 工具动态与实操

微软 Copilot 新增法律合规功能:合同修订追踪上线
美国 2026-04-15微软宣布 Copilot 新增面向法律、合规及财务专业人员的专项功能,其中最受关注的是合同修订追踪(Track Changes):律师在审阅合同或定稿政策文件时,Copilot 可自动记录每一处修订的版本历史,保留完整的审计痕迹。
该功能与 Anthropic 于 4 月推出的 Claude for Word 形成直接竞争。两款产品均嵌入 Microsoft Word、主打法律合同场景,显示出 AI 公司从"通用助手"向"法律垂直场景"的定位迁移。目前 Copilot 法律专项功能仍处于有限公测(Frontier program / Office Insiders Beta Channel),Claude for Word 则面向 Team 和 Enterprise 用户开放 Beta。
国内替代方案:国内已有多家消费级办公套件 AI 助手支持合同修订辅助与对话审查;企业级场景可选择已完成《生成式人工智能服务管理暂行办法》备案、支持私有化部署的法律大模型产品。具体产品选型由律所/法务部门按自身数据合规要求及采购评估自行决定——涉及客户保密信息的合同审查,建议优先选择数据存储于境内、具备明确数据处理协议(DPA)的服务商。
**影响:**★★★☆☆ 工具竞争加剧;律所选择嵌入式法律 AI 时,宜就合同追踪能力、数据安全及企业合规资质进行横向评估🔗 来源:Artificial Lawyer
💡 AI法律实践

场景:用 AI 起草证据发现会前函(Meet-and-Confer Letter),锁定对方的电子存储信息范围
以下实操来自 Craig Ball(曾任美国联邦特别主审官、德克萨斯大学法学教授)所著 Leery Lawyer's Guide to AI and LLMs in Trial Practice,2026 年 1 月版,免费 PDF 可在 craigball.net 获取。
场景说明:在美国联邦诉讼中,正式进入发现程序前,双方须举行"协商会议"(Meet-and-Confer),商定电子存储信息(ESI)的发现范围。函件结构复杂,涉及数据来源、保管人、日期区间、检索方法、元数据、生产格式、特权返还协议等多个维度。AI 在此可作为"结构框架起草员",大幅缩减从空白到初稿的时间。
Prompt 原文(英文,适用于 Claude / ChatGPT / 国内合规大模型等任意 LLM):
Draft a meet-and-confer letter proposing a proportional ESI protocol for a federal employment discrimination case in Texas. Address data sources, custodians, date ranges, search methodology (with examples), metadata fields, production format, and privilege clawback. Explain the rationale for each choice in plain English.三条通用原则(来自 Ball 指南,适用于所有诉讼类 AI Prompt):
"Use only the materials I provide; do not rely on outside knowledge."(仅使用我提供的材料,不要自行推断) "If the record is silent or ambiguous, say so."(记录不清或有歧义时,明说,不要填空) "End with a list of assertions that require human verification."(结尾附上需要人工核查的断言清单)
国内适配说明:国内已有多家合规大模型支持中英文混合 Prompt;企业级诉讼起草场景建议选择已完成备案、可私有化部署的法律垂直模型。具体选型由律所按客户数据分类及合规要求自行决定。
人工复核要点:
AI 生成的检索关键词示例(Search Terms)必须由律师逐一审查,关键词偏差直接影响发现范围 特权返还协议(Clawback)条款须律师依实际案情确认,不可照搬模板 函件发出前对照联邦规则 FRCP Rule 26(f) 要求逐项核查
人工 vs AI 时间对比:起草标准 ESI 协商函,人工通常需 2—4 小时;AI 生成初稿约 3 分钟,律师审改约 30—60 分钟。节省 70% 以上的框架起草时间。
🔗 来源:Craig Ball's Blog ·
📖 术语小词典
ESI Protocol(电子存储信息协议) — 美国联邦诉讼发现程序中,双方在正式启动前商定的数据搜集边界协议。相当于两家律所约好"只查这些文件夹里的内容、用这些关键词、按这种格式交换"——先约定好,省去后续无数争议。中国法院目前无对应强制制度,但跨境仲裁中越来越常见。
无限期停执(Indefinite Suspension) — 美国律师纪律处分中严重程度仅次于吊销执照的措施。与"定期停执"(Temporary Suspension,如停执 6 个月)不同,无限期停执没有明确恢复日期,律师须向法院另行申请解除,且复权审查通常更为严格。相当于中国律师资格的"吊证"而非"暂扣证"。
Meet-and-Confer(协商会议) — 美国联邦规则 FRCP Rule 26(f) 要求:诉讼双方在发现程序开始前须举行协商,商定证据范围、格式及时间表。未举行可导致法院制裁,拒绝参加方在后续发现请求中处于不利地位。中国民事诉讼中无完全对应程序,涉外合同诉讼中常见于英美法庭。
💭 每日一思
"If you are using AI to cut corners, you will get cut. The honest question is not 'can AI do my work,' but 'what part of my work only I can defend in front of a judge.'" — Craig Ball, Leery Lawyer's Guide to AI and LLMs in Trial Practice(2026年1月版,第 3 章)
Ball 这句话放在本期两起案例前格外刺眼。内布拉斯加律师 Greg Lake 正是把 AI 当成"抄近路的工具"——起草交给 AI、核查不做、庭审才被发现。他失去的不是一份状书,而是在法官面前为自己工作背书的能力。
杭州案的另一面是同一个问题的镜像:平台把"说话的权利"交给了 AI,却试图用"AI 不是平台"来规避 AI 所说的内容。法院的回应是——主体资格可以切割,管理义务不能切割。
AI 可以代劳内容,但不能代劳责任。
🎯 今日行动建议
- [律师 / 法务]
使用 AI 辅助起草法律文书后,逐条验证每项案件引用:起草人与验证人须分开,核查对象为原始判决文本,而非 AI 给出的摘要。内布拉斯加案的教训是——"大概没问题"不够,出了事"AI 写的"也不是理由。
- [AI 产品 / 法务部门]
检查现行用户协议,确认是否有"AI 生成内容不构成平台服务承诺 / 要约"的明确条款。若无,作为近期合规优先项处理;同步审查是否约定了平台纠错机制与用户通知义务——杭州案确立的过错责任路径,要求平台不仅要声明免责,还要证明尽到了管理义务。
- [律所管理层]
在部署 Copilot、Claude for Word 或同类嵌入式 AI 工具前,制定包含至少三项的内部 AI 使用规范:(1)按客户数据分类划定的可用工具清单及数据去向;(2)输出内容的复核责任人与签章机制;(3)禁止输入客户识别信息的范围说明。规范须形成书面文件并定期审阅。
本日报内容仅供参考,不构成法律意见。
夜雨聆风