奥特曼版权打官司,AI平台赔了3万
两个“奥特曼案”,划定了AI平台的生死红线
当你在AI绘画平台输入“生成奥特曼”,平台直接给你一张活灵活现的奥特曼图片——这算侵权吗?平台该不该赔?
广州、杭州两地互联网法院先后审结的两起“奥特曼版权侵权案” 给出了中国司法系统对这个问题的最新答案。
一个平台赔了1万,另一个赔了3万。 数额不大,但背后的法律逻辑,却划定了所有生成式AI服务提供者的“生死红线”。
本文将从专业角度,为您深度拆解这两起标杆案件的裁判逻辑。

案件回顾
同样用AI生成奥特曼,判决结果为何不同?
广州案:用户在某Tab网站输入“生成奥特曼”,平台直接显示奥特曼形象图片,并可下载。法院认定:平台构成直接侵权(侵犯复制权、改编权),判赔1万元。
杭州案:用户在某AI平台上传奥特曼图片训练LoRA模型,生成侵权图片并发布到平台“广场”共享。法院认定:平台不构成直接侵权,但构成帮助侵权(间接侵权),判赔3万元。
同样是生成奥特曼,不同的判决,差别在哪?关键在于平台的行为方式和控制能力不同。

侵权认定
直接侵权 vs 间接侵权:AI平台在法律上的“身份焦虑”
(一)直接侵权认定:传统规则在AI时代的失灵
广州案法院采用了传统版权侵权的“接触+实质性相似”认定标准:奥特曼作品知名度高→平台有接触可能→生成图片与原件实质性相似→构成直接侵权。这个逻辑看似没毛病,但如果套用在杭州案上,却会得出矛盾结论——杭州案生成图片同样与奥特曼实质性相似,难道也该认定直接侵权?
杭州法院显然意识到了这个问题,它提出了新的认定标准:“客观行为+主观意图”。客观行为上:侵权图片由用户上传训练素材、用户输入指令、用户决定发布,平台没有“提供”作品的行为。主观意图上:没有证据证明平台与用户有共同提供作品的意思联络。因此,平台不构成直接侵权。
💡 律师解读:这个区别至关重要。广州案平台是“被动响应”用户指令直接出图,杭州案平台则是“主动提供工具”让用户自己操作。前者相当于平台“代劳”侵权,后者相当于平台“借刀”给用户。
一句话总结:AI平台离侵权内容越近,越容易被认定直接侵权。
(二)间接侵权认定:五个关键词划定注意义务边界
杭州案法院虽认定平台不构成直接侵权,但最终仍判其承担帮助侵权责任。法院提出了五个考量因素:
① 服务性质:平台属于“接入开源模型+自主训练”类型,对技术手段和用户行为有较高掌控力,能以较低成本防范侵权。
② 营利模式:平台通过会员费、积分等获利,用户生成、分享侵权内容能增加平台活跃度和收入→收益与风险并存。
③ 作品知名度与侵权显著性:奥特曼形象家喻户晓,侵权图片放在平台“广场”首页显著位置→符合“红旗标准”(侵权像红旗一样明显,平台不能装看不见)。
④ 侵权后果可预见性:用户叠加奥特曼LoRA模型后可反复生成侵权内容,平台对此应有预见能力。
⑤ 防范措施可行性:平台收到诉讼通知后能屏蔽奥特曼关键词,说明技术可行→有能力却不为,就是过错。
💡 律师解读:这五个因素,本质上是法院在回答一个问题:AI平台到底该负多大的注意义务?答案是:与其控制能力、营利程度、侵权明显程度相匹配的注意义务。

关于不正当竞争
在两案中,原告都同时主张了不正当竞争。结果:法院均未支持。核心理由有三:
第一,行为不具有不正当性。 平台在用户协议中明确要求用户尊重知识产权,对生成内容进行了AI标识,设置了投诉举报通道,对部分侵权内容进行了审核拒绝——这些做法符合行业规范和商业道德。
第二,未扰乱市场竞争秩序。 AI平台提供的LoRA模型训练和个性化生图服务,是一种新型商业模式,满足用户多样化创作需求,技术本身具有中立性。竞争优劣势的变化是市场规律的结果,不构成不正当竞争。
第三,避免重复评价。 既然已经通过著作权法进行了规制(判了赔偿),就不应再以反不正当竞争法重复处罚同一行为。
💡 律师解读:这个裁判思路值得关注:反不正当竞争法在AI版权案件中扮演“补充”角色,只有在著作权法无法充分救济时才会“登场”。 平台只要在著作权法框架内承担了责任,一般不会再被“双重打击”。

责任承担
AI平台该怎么“保命”?
(一)停止侵害:不是“一刀切”删除所有数据
杭州案原告要求平台删除所有与奥特曼相关的训练数据和用户存储的图片。法院认为:这超出了平台的合理义务。
边界在哪里?
1.需要删除的:侵权生成图片、侵权LoRA模型(已成为专门针对特定作品的“侵权工具”)、停止相关发布服务。
2.不需要删除的:训练数据中的奥特曼作品(属于合理使用的“过程性复制”)、用户自己存储不对外传播的图片(属于个人学习研究)。
法院提出“四步判断法”认定数据训练的合理使用:
-
非作品性使用(旨在学习规则,非再现表达)
-
过程性复制(临时存储,不对外展示)
-
不以再现独创性表达为目的
-
非损害性(未影响原作品正常使用)
(二)必要防范措施:“宽进严出”双阶段标准
广州案法院提出了四项措施:提示风险、标识AI生成内容、设置投诉举报机制、过滤侵权关键词。杭州案法院进一步升级为“宽进严出”标准:
-
输入、训练阶段(宽):形式上的数据合规和算法优化要求,不搞苛刻的实质审查。
-
输出、使用阶段(严):用户监管、风险预警、人工干预、生成阻断、删除封禁。
💡 律师解读:这个标准非常务实——前端别卡死创新,后端要把住关口。平台不能以“技术中立”为挡箭牌,在输出端放任侵权内容泛滥。
(三)损害赔偿:1万和3万,合理吗?
两案原告都主张30万赔偿,最终分别判了1万和3万。法院考量因素包括:作品知名度、侵权范围、平台营利模式、采取措施的效果、维权合理费用等。
值得思考的问题:广州案平台承担的是直接侵权责任(更重),只判1万;杭州案平台承担的是间接侵权责任(较轻),反而判3万——这个倒挂是否合理?
此外,惩罚性赔偿是否适用于AI平台恶意侵权的情形?目前尚无案例,但不排除未来出现。

律师建议
给AI平台运营者的“合规清单”
基于两案裁判逻辑梳理出以下合规要点:
✅ 事前预防
-
制定用户协议,明确要求用户尊重知识产权
-
采用关键词过滤等技术措施,阻断明显侵权内容的生成
-
对AI生成内容进行标识,告知用户其AI属性
✅ 事中管控4. 设置便捷的投诉举报通道,及时处理侵权通知5. 对用户发布的模型和生成图片进行审核(尤其是“广场”等公开区域)6. 建立风险预警机制,对高频侵权内容进行监控
✅ 事后处置7. 收到侵权通知后,及时采取停止生成、删除、封禁等措施8. 删除专门针对特定作品的“侵权工具型”模型9. 保留审核日志,证明已尽到合理注意义务

文章总结
两个“奥特曼案”,一个判1万,一个判3万,数额都不大,但意义深远。
它们共同回答了AI时代版权保护的核心命题:如何在鼓励技术创新与保护著作权人利益之间找到平衡?
法院给出的答案是:分类施策、宽严相济——前端训练阶段给AI发展留足空间,后端输出阶段把住侵权关口;直接侵权要严,间接侵权要看控制能力和营利程度;著作权法能管的,反不正当竞争法不重复介入。
对于AI平台运营者,这两起案件是一记警钟,也是一份指南。技术中立不是免责金牌,平台越赚钱、控制力越强、侵权越明显,注意义务就越重。
对于权利人,这两起案件也给出了维权路径:优先主张著作权侵权(直接或间接),必要时辅以不正当竞争;注意收集平台营利模式、防范措施可行性等证据。
AI浪潮势不可挡,法律的回应也在与时俱进。“奥特曼案”只是一个开始,更多精彩的法律博弈,还在路上。

点个喜欢吧
夜雨聆风