
导语
The Line
2026年开年,OpenClaw在全球科技圈走红,这只“小龙虾”不再满足于“回答问题”,而是真正开始“替你办事”——发邮件、订机票等
但问题也随之而来:如果AI替你“做事”出了问题,这笔账该算在谁头上?是开发它的公司,部署它的企业,还是使用它的员工?
巧合的是,就在OpenClaw爆火的同时,杭州互联网法院也在今年1月审结了全国首例AI“幻觉”侵权案,为这一问题提供了重要的司法参考。
今天,我们就以OpenClaw为引,结合杭州首例AI“幻觉”案,拆解AI智能体的法律困境与企业的应对之道。
目录
01 AI智能体能否成为法律主体?
02 AI智能体能否作为“电子代理人”?
03 如果智能体犯了错,责任如何划分?
04 结语:实操建议
本文共计3037字,预计阅读需要8分钟
一
AI智能体能否成为法律主体??
目前,AI智能体在我国《民法典》中尚不被承认为民事主体。因为它没有自我意识,没有情感,更谈不上真正的自由意志。所谓“行为”,不过是算法对输入数据的机械反应,而非源于内在动机或对行为意义的理解。也就是说,AI智能体还不具备法律上所涵盖的人格要件。
此外,AI智能体本身既不拥有、也无须拥有独立财产,无法以自己的财产履行合同义务、支付赔偿或承担任何法律责任。
归根结底,在当前的法律框架下,AI智能体的最终责任主体,仍然是人。
二
AI智能体能否作为“电子代理人”?
所谓电子代理人,是指能够全部或部分地独立用于回应电子记录或实施行为,而无需个人检视或行为介入的计算机程序或电子方法。其核心特征在于自动化运作、无须人工干预,且本质上属于使用者的工具。正因如此,电子代理人的行为在法律上视为使用者的行为,相应的法律后果也应由使用者承担。
对外经济贸易大学数字经济与法律创新研究中心主任许可一针见血地指出:“AI智能体与电子代理人存在本质差异。电子代理人仅执行预设规则,无决策自由;而AI智能体已具备自主性,即便是相同指令也可能输出不同结果。”
这意味着,AI智能体绝非用户的电子代理人,其行为也非用户行为的简单替代。
三
如果智能体犯了错,责任如何划分?
随着智能体从被动工具向具有自主决策能力的“行动者”演进,传统的责任框架正面临根本性挑战。
在中国法律体系下,AI智能体引发的责任问题,法院在审理此类案件时,考虑到各方在技术掌控能力、风险预见可能性、实际介入系统运营的深度上都有明显差异,因此更倾向于在开发者、服务商、部署企业与终端用户之间,围绕各方的过错程度、对系统的控制力以及从中获取的利益,展开综合性的责任判断,很少会单独聚焦某个环节。
01
开发者责任问题
当一项技术可以被预见存在系统性、固有缺陷,而非使用者指令错误时,开源协议强大的免责条款,是否可以免除开发者本应承担的“注意义务”?界限范围又如何确定?
02
服务提供商责任问题
如何界定AI的“缺陷”是算法本身的漏洞,还是未能充分警示的“幻觉”风险?
在实践中,AI服务提供者普遍会使用“仅供参考”等免责声明、风险提示,这类条款能不能直接作为幻觉致损后免除责任的依据,也存在巨大争议。
2026年1月,杭州互联网法院审结了全国首例因生成式人工智能模型“幻觉”引发的侵权纠纷案。该案法院对AI生成内容的性质、服务提供者的责任边界以及侵权构成要件等核心问题进行了深入阐释,为类似纠纷处理提供了重要的裁判指引。该案的争议焦点如下:
📍 争议焦点一:AI生成的“承诺”信息是否构成AI独立、自主的意思表示?是否可视为AI服务提供者的意思表示?
法院认为
AI不具有民事主体资格,不能作出意思表示。AI自行生成的“赔偿承诺”亦不能视为AI服务提供者的意思表示。
对企业的启示
如无证据表明AI服务提供者曾作出愿受人工智能生成内容约束的外在表示,用户不能仅因AI生成的承诺而主张企业承担法律责任。
📍 争议焦点二:AI侵权应适用何种归责原则?
法院认为
生成式人工智能服务依据《生成式人工智能服务管理暂行办法》属于“服务”范畴,而非产品质量法意义上的“产品”。应适用一般过错责任原则,而非产品责任的无过错责任原则。
对企业的启示
根据一般过错责任原则,AI服务提供者需证明已尽注意义务。
📍 争议焦点三:AI服务提供者是否构成侵权?
法院认为
AI服务提供者需履行三层注意义务:法律禁止的违法信息严格审查、显著风险提示及功能可靠性保障。也需要用户提供遭受实际损失的有效凭证,用户如未就实际损失的发生提供任何有效证据,依法难以认定损害存在,则损害与结果之间不存在因果关系。
对企业的启示
AI服务提供者应以显著方式向用户提示AI生成内容可能不准确的固有局限性,包括明确的“功能局限”告知、保证提示方式的“显著性”、在重大利益的特定场景下进行正面即时的“警示提醒”,以防范用户产生不当信赖。AI服务提供者还应尽功能可靠性的基本注意义务,采取同行业通行技术措施提高生成内容准确性,比如检索增强生成技术措施等。
03
部署方与使用者责任问题
在企业场景中,部署AI的决策者与实际操作的员工,往往共同构成风险承担的整体。实践中,以下两类情形最容易引发责任争议:
1.员工超越授权使用AI某公司员工使用内部部署的AI生成合同,但未按公司规定进行人工复核,导致合同条款错误引发客户投诉。此时,员工的操作是否属于“职务行为”,将直接影响责任承担的方式。
2.企业风控机制缺失若企业未建立AI使用的内部管理制度(如权限分级、操作留痕、人工复核节点),在发生纠纷时,法院可能认定企业存在管理过失,从而加重其责任。
因此,企业的内部风控机制是否健全,员工的操作是否越权或失当,均成为法官裁量责任分配时的核心考量。企业应当通过合同约定和内部管理,精准地划定自身的责任边界,量身定制法律策略。
四
结语:实操建议
从OpenClaw的爆火到《人工智能法治研究十大议题(2026)》的发布,技术狂奔与制度思辨之间的张力愈发凸显。
对于企业而言,与其在“AI能否成为法律主体”的抽象命题中徘徊,不如直面一个更现实的问题:当智能体替你“做主”时,你的企业是否已经做好了承担责任的准备?
纵观当前的法律框架与司法实践,我们可以提炼出对企业具有实操价值的几点认知:
第一,责任不会消失,只会转移。AI智能体在法律上不具备主体资格,这意味着任何由其引发的纠纷,最终责任都将落在“人”的链条上——开发者、服务商、部署者、使用者,无一能置身事外。
第二,司法裁量的核心是“控制力”“获益”以及“过错程度”综合判断。
第三,风险防范需要“向前看”而非“向后看”。智能体的自主性决定了,损害发生后的事后追责往往面临举证困难、因果链断裂等问题。真正有效的风险管理,应当前置到智能体的设计、部署与授权环节——明确行为边界、留存决策日志、建立人工监督机制、完善内部风控制度。
基于以上认知,我们建议企业从以下三个层面构建自身的应对策略:
█合同层面:在上下游合作中,通过清晰的合同约定,明确开发方、服务方、部署方之间的责任划分、风险承担与追偿机制,避免在纠纷发生时陷入“责任推诿”的僵局。
█内控层面:建立与智能体自主性相匹配的内部管理制度,包括权限分级、操作留痕、人工复核节点、风险预警与应急处置流程,确保员工的操作行为有据可查、有规可循。
█保险层面:对于部署高自主性智能体(如自动化交易、智能客服、合同生成等)的企业,建议提前配置相应的责任保险,将潜在的赔偿风险转化为可预期的成本。
技术一直在变,法律也在慢慢跟上。对企业来说,关键不是猜测AI未来会出现什么错误,而是现在能不能建好一套制度,让不确定的技术风险,变成可控的管理动作。
本文作者:沈晨岚审查/校对:张悦
往期推荐●●
合规有度团队介绍●●




免责声明:本文内容仅为一般性法律知识分享,不构成针对特定事务的法律意见。企业具体合同问题,请结合实际情况咨询专业人士。
夜雨聆风