乐于分享
好东西不私藏

“换脸、仿声、洗稿”:AI短剧狂飙,侵权“疑难杂症”如何治理?

“换脸、仿声、洗稿”:AI短剧狂飙,侵权“疑难杂症”如何治理?

近年来,人工智能技术迎来爆发式发展,已全面渗透到短剧剧本创作、内容制作、宣发运营的全产业链。与此同时,短剧作为高速增长的新兴网络视听业态,已成为影视传媒行业的核心增长赛道。但二者融合发展的过程中,也催生了一系列新型版权侵权与治理难题,如AI剧本洗稿改编、AI换脸换声侵权、AI批量生成侵权内容等新型侵权行为频发,且具有海量、高频、隐蔽、传播速度快的特点,不仅侵害原创者的合法权益,也给行业健康发展带来了挑战。

日前,法治网研究院邀请了中国人民大学法学院院长杨东、北京大学法学院教授张平、暨南大学国际传播研究院院长陈昌凤、中国新闻文化促进会副会长陆先高、中国政法大学教授陶乾、北京理工大学法学院教授刘毅、中国社会科学院大学互联网法治研究中心主任刘晓春、中央民族大学法学院教授熊文聪等围绕相关话题展开了一场深入探讨。

01

法治网研究院:当前,AI短剧风起云涌,既受到了市场的追捧,也带来了一些争议以及侵权质疑。整体来看,您认为,AI短剧争议和侵权行为目前主要表现在哪些方面?

张平:AI短剧争议可归纳为换脸、仿声、版权三类,前两者属于典型人身权,后者以财产权为主、兼含部分人身权。人身权保护具有绝对性与严格性,无论主体是否为名人、是否纳入筛查库,均应受到同等保护。

我认为,平台与制作方对知名人物肖像、声音应建立事前严格审查机制,设立公众人物筛查库,履行更高标准的注意义务,可借鉴行业“分类分层审核”思路,提升审核的精准性与效率;对于普通公众,则难以实现全覆盖事前筛查,应依托事后高效处置机制,完善平台自律规则、投诉处理流程与内部惩戒措施等,同时结合短视频平台审核中人工与技术结合的手段、违规处理经验,优化处置效能,以充分的分层管理措施降低法律风险。

陆先高:当下,AI短剧领域的信息侵权大致包括AI肖像侵权、训练数据侵权、AI内容侵权等类型。

在AI肖像侵权方面,存在较多情形:第一种是完全由AI生成,即侵权人物形象在数据训练环节由文生图、文生视频模型随机生成,制作方可能主张模型随机生成。第二种是定向的AI生成,制作方通过给出关键词或者是提示词的定向引导,生成与明星或者素人相似的形象,其本质是间接地“偷脸”,刻意地碰瓷,主观故意更强。第三种是纯AI换脸,比如使用明星的形象完全替换,高度逼真,但是表情、眼神、肌肉运动是靠AI生成的,这种侵权认定相对比较清晰,但是维权难点在追偿环节,这类内容的制作方大多属于小公司,几乎没有赔偿能力,而这种跨平台、多账号传播的批量生产清理更难。第四种是“缝合脸”,又叫AI融脸,是使用多个形象的眼、鼻子、嘴、脸型等进行融合,不明确对应某个具体的真人,这种侵权定性最复杂,争议也最大。

AI内容侵权方面,可能存在剧本抄袭、素材盗用等,比较明显。另外“二创剪辑”中存在软件自动切割、组装其他作品的一些高光片段,如果对侵权内容缺乏有效的拒绝机制和投诉机制,恐怕就不能及时彻底删除侵权内容,很容易泛滥。

02

法治网研究院:当前,AI短剧版权保护主要面临哪些困境和突出问题,其背后原因有哪些?

杨东:现行网络版权侵权责任体系以“直接侵权”与“间接侵权”二分法为基础,平台责任认定以“明知”或“应知”为过错要件。然而,在人工智能与海量内容并存的场景中,传统规则面临双重困境:一方面,“明知”认定标准虚化,权利人“通知”常缺乏精准定位信息,平台日均千万级内容增量与“24小时删除”时限形成现实悖论,制度设计面临技术可行性与产业承受力的双重拷问;另一方面,“应知”推定边界模糊,算法推荐的“中立性”与“红旗标准”适用冲突日益凸显。著作权侵权判断的复杂性使平台注意义务认定陷入主观判断与客观能力的矛盾困境。司法实践中对算法“助推传播”的归责倾向,实则已突破既有规则预设,存在架空“避风港原则”之嫌。

人工智能时代版权审核难题,本质是工业经济时代规则与数字技术场景的适配性危机。随着人工智能审核的引入,基于工业经济时代的“通知-删除”规则已经越来越不适用于人工智能时代。而AI自动审查也存在天然局限,也不能将全部审核责任强加于平台企业。

陈昌凤智能传播已经呈现出一种过程型生产结构,这一结构是内容生成、数据处理与平台分发高度耦合的结果,这种结构使得传统法律所依赖的权力配置和责任分配难以有效适应,进而出现失衡状况。AI短剧版权机制的适配问题存在主体认定、责任归属、确权时序三重困境,在治理层面并非传统侵权问题的简单延伸,而是需要面向新型智力生产方式开展系统性制度变革。

AI短剧版权治理面临的系统性挑战,主要来自三方面深层原因。首先是内容生产过程化,AI创作并非一次性完成,而是多轮生成、多轮调整、持续迭代的动态过程,每一环节都涉及数据使用、权利来源、合规性判断等法律问题,当前司法与治理过度关注最终输出结果,忽视生成过程的合法性,难以从源头防范风险。

其次是生产与传播深度耦合,内容高度依赖数据训练与算法推荐,数据来源直接影响表达形态,比如数据驱动与算法机制影响选题方向、内容风格、热点走向,产播一体化使得权利问题从内容末端延伸至数据与算法前端。

最后是结构去中心化,多主体协同、无单一控制者的生产模式,削弱了传统版权制度赖以运行的稳定表达、明确作者、可归责主体等基础条件。

刘晓春:由于AI短剧迅速兴起,其侵权形式和现象呈现诸多新型特点,对现有的识别和认定标准构成了实质性挑战,通过以往的技术难以进行有效的事前判断和拦截。首先,司法实践中总结的“可识别性”判断标准在很多情况下存在不确定性,AI合成人脸多经过特征修饰、局部修改,并非完全复刻原貌,形成“似是而非”的形象,难以依据传统标准判定侵权,目前尚缺乏统一、明确的审核标准。

其次,混合与动态人脸情况下会增加判断难度,部分合成人脸融合多人面部特征,无明确原始对照对象,可能构成跟多人相似却又无法一一对应的情况;且短剧画面为动态呈现,人脸特征随剧情、镜头实时变化,有可能时近时远、时像时不像,进一步提升审核难度。

最后,技术与数据库支撑的成熟度存在不足,行业目前还缺乏成熟的动态人脸比对技术,且无法建立覆盖普通人的肖像比对数据库,无论从技术可行性还是成本合理性上看,都难以实现全量事前筛查。

陆先高:我认为,行业面临着以下突出问题:一是侵权成本低,维权成本高,AI换脸、声音克隆生产速度快,但是维权时需要专业举证,时间和金钱成本极高;二是AI内容生成本身版权归属不清晰,对人物特征、风格、气质这些保护不足,导致融脸、缝合这一类侵权情况没有明确的规则可以界定;三是可识别的标准亟待量化,司法实践、专家审核等目前缺少侵权认定的可操作化、量化标准;四是素人会成为侵权的重灾区。

张平:具有识别性的公众人物如配音演员、播音员等声音当然受法律保护;如声音不具备显著公众识别性,权利人也当然有权主张权利。但在AIGC创作中,通常AI生成的内容并非对原素材的完全复制,这种似像非像的特征成为侵权认定的核心难点。

关于版权侵权方面,传统著作权侵权以“实质性相似+接触”为认定标准,只聚焦生成结果;而AI时代不仅给传统的“思想与表达二分法”认定标准带来了挑战,在全球都是具有争议的难题。比如部分生成作品与原作品表达不同但风格高度近似,对此难以用统一比例标准判定是否侵权。为减少法律风险,平台可基于风控设定内部比对阈值,但侵权认定最终仍是法院依赖个案判断,不适用固定百分比规则。

03

法治网研究院:针对当前存在的问题,如何构建多方协同的版权共治体系,进一步推动AI技术在短剧行业的合规创新发展,对此,您有哪些建议?

杨东:面对传统规则的失效与技术审核的局限,单纯修补侵权责任体系不足以应对挑战。以共票理论重塑版权治理逻辑,核心是从“绝对排他”转向以“利益共享”为核心的新型分配机制。依托智能合约等数字技术,通过为版权生态中的多元主体颁发可流通、可分配、可追溯的技术凭证,将创作者、传播者、平台、用户、AI技术提供者等利益相关方纳入同一价值生态。

在这一机制下,版权价值的实现路径从依赖法律赋予的“排他性”“作品独立性”收益模式,转向以共建、共享、流通为核心的新型价值实现机制。版权的经济回报不再仅仅依赖于对单个作品的排他性控制,而是通过开放协作、平台化运营和用户参与,推动作品在更广泛的生态系统中流通增值。

陶乾:从短剧版权治理的维度看,需要多方协同、行业共治。就行业治理而言,全行业形成共识和合规标准,行业组织可以适时牵头来形成素材使用标准、AI短剧创作指引。就创作素材的合规使用而言,相关部门构建素材库、作品池,形成公平和便捷的授权机制。就平台治理而言,推动短剧权利人与网络服务提供平台建立版权共治机制,将权利人的作品纳入内容比对系统,探索通过广告分成来形成良性合作,助力行业更好发展。

刘毅:我认为需要推进短剧行业全链条的合规治理,不能仅靠各主体的自发行为,更需要法律与行业协会发挥“定规则、搭平台、强自律”的引领作用。

第一,统一合规标准,消除法律适用的不确定性。当前,关于AI生成内容的可版权性、权利归属、侵权认定标准等问题,无论在理论界还是实务界都存在较大争议。这种不确定性本身就是产业发展的障碍。行业协会应当牵头组织法律界、产业界和技术界的专家,尽快制定团体标准或行业指引,在立法和司法解释出台之前为市场提供可操作的合规依据。这些标准应当覆盖训练数据合规、生成内容标识、权属存证方式、侵权比对规则、平台注意义务等关键节点,做到“每一环节有标准,每一标准可落地”。

第二,搭建低成本、高效率的维权通道。 对于绝大多数中小创作者和中小制作方而言,传统的诉讼维权路径成本过高、周期过长,实际上将权利人挡在了救济大门之外。行业协会可以发挥组织优势,建立快速调解机制和在线仲裁平台,利用区块链存证、在线比对等技术手段,大幅降低维权的时间和经济成本。同时,可以探索建立“小额侵权快速赔偿通道”,对于事实清楚、争议金额不大的侵权案件,通过简易程序和格式化处理流程,实现“上午投诉、下午下架、三天赔付”的高效救济。这种机制的设计需要兼顾效率与公正,但方向是明确的——不能让权利救济成为奢侈品。

第三,强化行业自律,建立信用评价与联合惩戒机制。自律不是道德说教,而是有约束力的行业规则。行业协会可以建立全链条主体的信用档案,记录制作方的侵权记录、平台的处置效率、技术方的合规表现等信息,并向会员单位和公众开放查询。对于严重违规或多次违规的主体,行业内部可以采取联合惩戒措施,包括通报批评、暂停会员资格、列入行业黑名单等。这种信用机制的法律效力虽然有限,但在行业内部具有实质性的约束力——因为被列入黑名单的主体将难以获得其他会员单位的合作。同时,行业协会应定期发布合规红黑榜和典型案例,引导市场资源向合规主体倾斜,形成“合规者受益、违规者承压”的市场环境。

第四,推动立法完善与司法协同。行业协会在凝聚行业共识的基础上,应积极向立法机关和司法机关提交修法建议和裁判指引,反映产业实践中的痛点与可行方案。例如,关于“合理使用”在AI训练中的适用边界、“通知-删除”规则在AI时代的调整方案、生成内容的邻接权保护等问题,都需要立法层面的回应。同时,协会可以组织行业力量参与典型案件的法庭之友意见提交,推动形成对产业发展友好的判例导向。

陈昌凤:基于传播角度来看,我认为两大治理方向:一是推动治理节点前移,要从结果治理转向全过程治理。当前平台治理多集中于内容审核与事后处置。但在新的创作模式下,要将合规要求落实到以制作方为主体的创作工作流中,而非仅依靠平台对最终呈现结果的被动把关,以此实现从事后认定向全过程规制的转变,从而在法律上讨论新责任问题。

二是推动责任从单点定责转向多主体协同分担。AI时代的责任呈现分层化、链条化特征,模型、工作流、工具技能、用户意图等均构成责任要素,不同主体、不同环节应承担与其行为、控制力、收益相匹配的责任。她强调,AI短剧版权问题不是传统影视作品侵权问题的简单扩展,而是新型智力生产方式引发的制度性问题,现有规则的底层假设已经滞后于技术与产业现实,仅靠修修补补、头痛医头无法从根本上解决问题。

刘晓春:规范AI短剧发展,需立足产业实际与权利保护,理性界定平台责任,构建分类施策、协同高效的治理机制。在审核方面,建议平台可以建立分类分级审核机制,针对侵权高发场景,例如特定公众人物,建立特征数据库,通过技术手段主动预警、拦截侵权内容;对于尚未监测到高发的情形,比如普通人肖像,不强制要求事前全量比对,一方面通过平台规则要求短剧创作者严格履行权利保护义务,以创作者授权承诺为基础,强化源头规范,另一方面完善落实“通知—删除”规则,搭建便捷、高效的维权通道,简化维权流程,在接到有效侵权通知后及时采取下架、屏蔽等处置措施。平台还应完善侵权账号惩戒机制,对恶意侵权、多次违规的账号采取限流、封禁、公示等处置措施,并为权利人提供便捷取证等辅助服务,为权利人进行后续司法维权提供支持。

AI短剧产业的繁荣离不开规范有序的发展环境。平台作为连接技术、创作者与用户的关键环节,需坚守法律底线与伦理准则,在合理范围内履行治理责任,既不苛责过度、阻碍产业创新,也不松懈放任、纵容侵权行为。唯有通过多方协同、权责清晰的治理路径,才能让AI短剧在技术创新与权益保护的平衡中健康发展,守护好每一个人的肖像权与人格尊严。

熊文聪:技术创新与商业模式创新必然伴随成本,法律规制不应只注重事后损害弥补,更应立足产业发展。可以“让子弹飞一会儿”,先让AI短剧产业自由发展,待形成普遍共识、明确核心争议后,再通过规则进行规范调整,确保法律制度与产业发展、国家战略相契合。

专家简介

杨东

中国人民大学法学院院长

张平

北京大学法学院、北京大学人工智能

研究院双聘教授

陈昌凤

暨南大学国际传播研究院院长、清华大学

新闻与传播学院教授

陆先高

中国新闻文化促进会副会长,微短剧传播与应用

评测体系“繁星指数”专家组组长

陶乾

中国政法大学教授、北京市文化娱乐法学会

版权法研究专业委员会主任

刘毅

北京理工大学法学院教授、北京市文化娱乐

法学会常务副会长

刘晓春

中国社会科学院大学互联网法治

研究中心主任

熊文聪

中央民族大学法学院教授

– END –
来源法治网
选题策划法治网研究院
沈仲亮
编辑|李梦珠
【版权声明】转载请注明来源法治网微信公众号。