文章导读
自从ChatGPT横空出世,AI已经深刻地影响社会生活的各个方面,AI+成为了把各个行业重做一遍的新的机会与风口。随着AIGC(AI Generated Contents)在文字、图片、声音、视频等领域的全面涌现,也给《著作权法》《民法典》的适用带来新的挑战。毫无疑问,AIGC生成内容与版权规则最为密切相关,当然无法忽视的是训练大模型过程中的数据的使用边界。
聚焦全球AI前沿动态,深耕知识产权实务纵深。从立法风向到司法判例,从产业变革到合规挑战,海润天睿合伙人周凡律师、戴越律师及团队律师以法律人的专业视角,为您解读智能时代最值得关注的新规则、新争议、新机遇。
本期她们将梳理:01Ted Entertainment,Inc.等诉OpenAI Inc.等案;02《数字虚拟人信息服务管理办法(征求意见稿)》提出保护个人敏感信息、人格权以及知识产权;03上海市宝山区人民法院认定AI生成内容无法律证明效力;04工信部、网信办等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》;05《人工智能拟人化互动服务管理暂行办法》正式发布。
文章关键词:AI、ChatGPT、知识产权、数字虚拟人、AI生成内容、法律证明效力、人工智能拟人化
开始阅读
01 Ted Entertainment,Inc.等诉OpenAI Inc.等案
一、基本案情
2026年4月3日,Ted Entertainment、Matt Fisher与Golfholics三个YouTube频道对OpenAI发起集体诉讼(案号3:2026cv02935),指控OpenAI公司在AI模型训练过程中非法使用其视频内容。
根据起诉状,原告指出,被告对YouTube技术保护措施(TPMs)采取了系统性的规避措施,被告使用自动化视频下载程序,并结合可轮换IP地址的虚拟机以避免被检测和封锁,进行未经授权的访问和视频抓取,从而能够满足训练Sora所需的大规模数据。为此,被告将原告及集体成员的知识产权用于自身商业利益,用于开发和商业化Sora。被告的上述行为违反了法律以及旨在保护原告及其他类似处境者的YouTube的服务条款。
同时,起诉状提到,被告并未获得内容创作者的同意或向内容创作者支付合理的价格就将受版权法保护的视频用于商业用途,并取得了实质性利润。而原告和集体成员等内容创作者无法收回被被告非法复制并用于训练其生成式AI模型的知识产权,因此,被告的行为构成了对创作者作品的滥用和剥削。对此,原告代表自身以及全国范围内其作品被未经授权抓取、吸收并用于训练的YouTube创作者们,提起了该集体诉讼,诉求包括法定赔偿、禁令救济、返还所得,以及根据《数字千年版权法》17 U.S.C.A.§1201(a) 所允许的所有其他救济措施,同时希望获得与被告大规模且持续侵权的范围相称的禁令和损害赔偿。
起诉状还提到了HD-VG-130M, HD VILA-100M, Panda-70M, HowTo100M四个开源数据集。其中,Panda-70M该数据集由Snap公司、加州大学和特伦托大学的研究团队于2024年推出,包含约380万个高分辨率YouTube视频,被分割为约7000万个语义连贯的视频片段,每个片段均配有由多模态AI模型自动生成的描述性字幕,并通过URL、视频标识符和时间戳定位特定YouTube视频及片段。目前,该诉讼还在推进中。
二、思考
本案原告以《数字千年版权法》(DMCA)第1201条的反规避条款作为核心诉讼依据,该条的核心内容可概括为:禁止未经授权,规避对受版权保护作品所采取的“技术保护措施”(Technological Protection Measures, TPM)1。YouTube作为视频内容分发平台,设计了反爬虫机制、滚动加密等技术手段以防止他人未经授权的批量下载,这些措施在法律上可以被认定为有效的“技术保护措施”。原告方的论证逻辑是:即使Panda-70M数据集本身仅提供索引而非直接存储侵权内容,但被告在提取每个片段时均需独立访问YouTube源视频并绕过其防护机制,在该过程中,被告每获取一个片段,就会构成一次独立的规避行为。原告方称其内容在该数据集中出现超过500次,意味着至少发生了500次独立的规避行为。
从法律效果看,原告选择DMCA第1201条作为诉讼依据具有多重优势。首先,该条款不要求原告证明被告直接复制了版权内容,只需要证明其“规避了技术保护措施”,举证门槛相对较低。其次,该条款的法定赔偿机制较为成熟,单次侵权可按法律最高限额赔付,累计计算后获赔金额较高。再次,原告无需证明AI模型的输出内容与原作品构成“实质性相似”,避免了这一难度较高的举证。
最后,值得注意的是,起诉状中原告提到“在一个被告及其他主体可以规避技术保护、未经授权且不受惩罚地利用版权作品的世界里,创作者将更不愿意在YouTube及其他类似平台上提供他们的作品”,表达了其对互联网生态的担忧。这或许将是AI生成时代的一个长期议题。
参考资料
[1] 起诉状原文:Ted Entertainment, Inc. 诉 OpenAI Inc.案,3:26-cv-02935 – CourtListener.com
[2] 动点科技:苹果、亚马逊、OpenAI 卷入 YouTube AI 训练丑闻https://cn.technode.com/post/2026-04-07/apple-sued-by-three-youtube-channels/
[3] 人工智能培训咨询叶梓:Panda-70M数据集:用多模态教师模型为7000万视频自动生成字幕
https://blog.csdn.net/yetzi1975/article/details/141164756
注释:
1.参见参考资料[2]
02《数字虚拟人信息服务管理办法(征求意见稿)》提出保护个人敏感信息、人格权以及知识产权
国家互联网信息办公室于2026年4月3日发布《数字虚拟人信息服务管理办法(征求意见稿)》。值得关注的是,《征求意见稿》的第二章“权益保护”明确提出了对于个人敏感信息、人格权以及知识产权的保护。
一、主要内容
(一)对于个人敏感信息的保护:使用自然人个人敏感信息用于建模、生成形象、构建场景等的,(1)必须取得自然人的单独同意,并明确以显著方式真实、准确、完整的告知处理的目的、必要性及对个人权益的影响;(2)自然人若撤回同意的,应当删除相关个人信息,不得以任何形式留存及用于他用;(3)使用时不得侵害他人隐私权和个人信息权益。
(二)对于人格权的保护:在人格权保护方面,《征求意见稿》第二章还提出,使用时不得侵害他人肖像权、名誉权、荣誉权,包括死者的;不得以丑化、污损等形式侵害他人人格权,且未经特定自然人同意,不得提供足以识别特定自然人身份的数字虚拟人服务,包括但不限于(1)使用他人具有一定社会知名度的笔名、艺名、网名、译名、字号、姓名或者名称的简称;(2)使用与特定自然人高度相似的肖像或者声音,等。
(三)对于知识产权的保护:《征求意见稿》提出使用数字虚拟人服务应尊重知识产权,若使用他人文字、美术、摄影、音乐、视听等作品或者制品制作数字虚拟人,以及各类主体在使用数字虚拟人过程中,不得侵害他人依法享有的知识产权。但是,对此《征求意见稿》没有更具体的规定,例如是否需要取得权利主体的许可同意、是否需要支付经济补偿等,都有待明确。
(四)明确标识的义务:《征求意见稿》在第三章“服务规范”中明确了数字虚拟人服务的提供者和使用者及网络信息传播的服务者,在数字虚拟人服务全流程须持续显示“数字人”的显著提示标识,要求符合国家人工智能生成合成内容标识有关规定。
参考资料
[1] 网信办:国家互联网信息办公室关于《数字虚拟人信息服务管理办法(征求意见稿)》公开征求意见的通知_中央网络安全和信息化委员会办公室
https://www.cac.gov.cn/2026-04/03/c_1776952992709096.htm
[2] 新华网:国家网信办就数字虚拟人信息服务管理征求意见-新华网
https://www.xinhuanet.com/tech/20260410/1dc300ce08d641ca8234a40c8958f4f9/c.html
03 上海市宝山区人民法院认定AI生成内容无法律证明效力
上海市宝山区人民法院在4月7日其于法院公众号披露的案件中明确指出,AI生成内容引用资料缺乏权威来源,客观性、权威性及证明力均不足,依法不予采信。
一、案件背景
原告谭某与被告(某事业公司)签订了包含“地暖系统”的装修合同。但在装修交付后,原告发现地暖无法正常制热,遂至上海市宝山区人民法院起诉被告违约,要求赔偿损失。为证明地暖系统不达标、产品功率不足,原告提交了一份其与生成式人工智能交互得到的生成式内容作为证据。原告询问了AI大模型“某型号锅炉适合多少面积”,AI参考了网络信息后回答“该型号锅炉供暖面积适用于80-120平方米住宅,等”。而被告则是提供报告等作为证据,证明地暖质量达标、验收合格。
二、法院观点
法官最终认定,原告提交的AI生成内容并未参考权威的行业规范、国家权威标准信息,而是参考了网页资料、网络营销信息、产品手册。法院指出,大模型的回答缺乏稳定性、权威性,不同的大模型因其训练数据、算法等方面的不同,就同一问题给出的答案可能存在显著差异。因此,法院认定原告提交的人工智能生成的内容缺乏权威来源,客观性、权威性及证明力均不足,依法不予采信,驳回原告诉请。
三、思考
生成式人工智能仍旧是工具。当事人在准备案件时可以使用人工智能大模型为案件提供思路和分析。但是,对于大模型生成的内容仍需仔细甄别,很多生成的内容存在“AI幻觉”,可能是不实的,甚至是错误的。而且,即使大模型提供的内容是正确的,也有权威信息来源支持,也不能直接等同于该生成内容可以作为具有法律证明效力的证据,当事人应当根据AI生成内容及其提供的信息来源,溯源到官方、权威的信息、文本,将真实可靠的源头材料作为证据提交。
参考资料
[1] 上海宝山区人民法院公众号:当事人在庭审中拿出AI生成的证据,法院怎么看?丨宝法案例
https://mp.weixin.qq.com/s/e0j84ICYMTsjieWlFOtyLw
[2]上海法治报:男子打官司拿AI回答当证据,上海法院:不予采信!
https://mp.weixin.qq.com/s/g9_PxCVLbXJVpPQ8WlWfGA
04 工信部、网信办等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》
一、基本情况
2025年4月7日,工业和信息化部、中央网信办、科学技术部、国家发展改革委、公安部、国家广播电视总局、国家数据局、中国科学院、中国社会科学院、中国工程院等十部门联合印发了《人工智能科技伦理审查与服务办法(试行)》(工信部联科〔2026〕75号)。
该《办法》是我国首部专门针对人工智能领域科技伦理审查的综合性、系统性部门规章,全文共6章37条。该《办法》的出台,标志着我国人工智能治理体系从“原则倡导”迈入“标准规范、实操落地”的强监管新阶段,为AI全生命周期的伦理风险管理提供了明确的制度框架和法律依据,对企业合规提出了系统性、前瞻性的要求。
二、主要内容
(一)适用对象:《办法》第二条规定了适用对象,在中华人民共和国境内开展的,可能在人的尊严、公共秩序、生命健康、生态环境、可持续发展等方面带来科技伦理风险挑战的人工智能科学研究、技术开发等活动等。
(二)责任主体:《办法》第九条规定了从事人工智能科技活动的高等学校、科研机构、医疗卫生机构、企业等是本单位人工智能科技伦理审查管理的责任主体,应设立人工智能科技伦理委员会。同时,地方、相关主管部门可结合实际依托相关单位建立专业性人工智能科技伦理审查与服务中心,提供伦理审查、复核、培训、咨询等服务。
(三)基本原则:《办法》第三条规定了开展人工智能科技活动应将科技伦理要求贯穿全过程,遵循增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明、保护隐私安全、确保可控可信的七大原则。
(四)审查重点:《办法》第十五条规定了审查的关注重点,包括人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护等六个方面。
(五)审查流程:《办法》第四章构建了完整的审查流程,包括申请、受理、审查(根据风险发生的可能性和程度、紧急情况等明确一般、简易或应急程序)、专家复核、审查决定、审查申诉、跟踪审查。
(六)服务与促进:《办法》还单设了“服务与促进”一章,从标准建设、促进服务、鼓励创新、宣传教育、人才培养五个方面赋能产业发展。
二、思考
近年来,全球范围内对AI伦理风险的关注与日俱增,我国也先后通过人工智能科技伦理方面政策性文件,提出了原则性要求。《办法》的出台,意味着对于人工智能伦理的规范从“软约束”到“硬杠杠”,填补了“原则”与“实践”之间的鸿沟,旨在建立可操作的审查体系、防范系统性风险、促进创新与规范平衡。企业可以尽快对照《办法》中规定的需要开展伦理审查的情形,梳理现有及在研的AI产品、服务与项目,进行伦理风险评估,尽早做好风险防范。
参考资料
[1]工信部:https://www.miit.gov.cn/jgsj/kjs/wjfb/art/2026/art_2995f16b28504ddcbb604e918eb15759.html
05《人工智能拟人化互动服务管理暂行办法》正式发布
2026年4月10日,国家互联网信息办公室、中华人民共和国国家发展和改革委员会、中华人民共和国工业和信息化部、中华人民共和国公安部、国家市场监督管理总局令第21号令《人工智能拟人化互动服务管理暂行办法》正式发布,并将于2026年7月15日正式施行。
此前在《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(“《征求意见稿》”)阶段,本团队曾经就相应的内容做出解读,《人工智能拟人化互动服务管理暂行办法》制定的前提以及基础仍在于此前已经在AI领域适用的多部法律法规,比如《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》《网络安全法》《数据安全法》《个人信息保护法》等,又进一步基于对以AI伴侣、虚拟偶像等为代表的拟人化互动服务的产业监管需求,目的在于解决情感依赖、特殊群体高风险等新问题,专门发布与拟人化互动服务相关的管理办法。
相比于征求意见稿,正式文本在核心定义以及监管方面做出了调整,解决了此前我们在研读《征求意见稿》时关于监管口径、服务认定方面的困惑。
比如,关于拟人化互动服务的认定,《征求意见稿》第二条提到,利用人工智能技术,向中华人民共和国境内公众提供模拟人类人格特征、思维模式和沟通风格,通过文字、图片 、音频、视频等方式与人类进行情感互动的产品或者服务(以下简称拟人化互动服务),适用本办法。法律、行政法规另有规定的,依照其规定。但是,实际上,“模拟人类人格特征、思维模式和沟通风格,通过文字、图片 、音频、视频等方式与人类进行情感互动”范围过于宽泛,所有的大模型都是基于人类已有的知识进行“学习”,那么交互式生成内容不可避免“模拟人类人格特征、思维方式”,包括智能客服、知识内容生成在内的大模型是否需要纳入监管存在边界不清。正式文本明确“提供智能客服、知识问答、工作助手、学习教育、科学研究等服务,不涉及持续性的情感互动的,不适用本办法”。
而在与AI相关的其他领域,比如预训练与数据训练,不管是《征求意见稿》还是正式文本,均要求相关数据具有合法来源,数据的透明度、可靠性与防止数据投毒数据污染、增强训练数据的多样性、评估合成数据安全性等要求,这一规定对于其他类型的大模型训练亦有着参考意义。
参考资料
[1]全文 | 人工智能拟人化互动服务管理暂行办法https://news.qq.com/rain/a/20260410A071MK00
[2]《人工智能拟人化互动服务管理暂行办法(征求意见稿)》公开征求意见https://www.peopleapp.com/column/30051081455-500007278071?f_link_type=f_linkinlinenote&flow_extra=eyJpbmxpbmVfZGlzcGxheV9wb3NpdGlvbiI6MCwiZG9jX3Bvc2l0aW9uIjowLCJkb2NfaWQiOiJjZmVkOGNjYjQ5M2ZkOTczLWJiYjM3MGU2OTkyMzVkYmIifQ==
致谢:实习生李曼雨、张煦对本文内容编辑做出贡献
作者介绍

周凡
海润天睿 合伙人
zhoufan@myhrtr.com
周凡律师,拥有北京大学化学学士与法律硕士学位,律师执业证与专利代理人资格证,此前在知名律师事务所从事知识产权工作多年。周凡律师专注于知识产权诉讼及非诉法律服务从业十余年,深耕商标、版权、不正当竞争、商业秘密,不仅擅长代理重大疑难诉讼案件,对于知识产权的体系化管理,企业出海知识产权布局及诉讼,知识产权尽职调查,品牌打假等方面也具有丰富经验。
周凡律师承办了数百件诉讼案件及非诉项目,曾多次代理客户成功获得诉讼禁令,帮助客户成功通过民事诉讼确立对未注册商标反法权益并制止上市公司股票名称仿冒,成功帮助客户针对境内假冒的民事行政刑事的体系化维权,成功帮助客户建立商标管理体系以及海外商标布局等,为众多大型国企、上市公司、头部互联网企业等提供法律服务。

戴越
海润天睿 合伙人
daiyue@myhrtr.com
戴越律师现为北京市律师协会著作权法专业委员会委员、副秘书长,在知识产权领域深耕多年,服务领域涵盖影视、游戏、音乐、文学、互联网、能源、房地产、餐饮等多个行业,积累了丰富的法律实践经验,曾在2020年入选legalband律届俊杰榜30强。

唐安琪
海润天睿 律师
tanganqi@myhrtr.com
唐安琪律师现为北京海润天睿律师事务所律师,在加入北京海润天睿律师事务所之前,曾经在多个知名律所工作多年,主要执业领域为知识产权,以涉外法律服务为主。执业期间为多家国内外知名企业及品牌方提供境内外知识产权诉讼代理与知识产权保护相关的法律服务。
服务的客户涵盖跨国集团与本土龙头企业,领域包括影视、游戏、美妆护肤、食品饮料、保健品、汽车制造、零售、金融投资、商业地产、奢侈品等。
推荐阅读
以上文章仅作为法律信息评述,不能作为对任何客户或者事件的法律意见。仅代表作者个人观点,不代表其所在机构立场。如需转载或引用文章中的任何内容,请联系海润天睿市场部,邮箱地址:xucong@myhrtr.com。
编辑丨杨玲玲
初审丨徐 聪
复审丨孟 妮


夜雨聆风