

摘要:2025年,全球首部全流程AI生成90分钟华语院线长片《海上女王郑一嫂》在新加坡和马来西亚公映,标志着AIGC电影正式进入主流商业院线体系。
这部由FizzDragon全球来自13国130余位创作者远程协作、上千位AI数字演员、生成数十万个AIGC镜头的作品,不仅刷新了人类对电影生产极限的认知,更以一种近乎暴烈的方式撕裂了现行版权法制度的结构性外壳。
本文认为,AIGC技术正在推动全球版权法律保护的根本性范式转移:从“后置式损失弥补”转向“前置化版权保护”。在这一新范式下,版权保护不再是在侵权发生后的被动救济,而是从创作行为发生的第一刻起即嵌入生成系统,成为可追溯、可验证、可即时确权的技术化制度安排。
这一转向的实质,是人类创造力与AI生产力的深度融合所催生的制度重构——如何在“人”的控制力与“机”的生成力之间划定边界、分配责任,这将是未来30年全球版权法律最核心的命题。
关键词:AIGC电影;版权保护范式转移;前置化保护;创造性控制力;人机协同
一、引言:一个镜头的诞生与一个制度的黄昏
想象这样一个场景:一位创作者坐在屏幕前,输入一段文字描述——“郑一嫂立在船头,海风卷起她的斗篷,远处是无边的舰队”。
几秒钟后,一个高精度的、带有电影级光影质感的镜头出现在屏幕上。她调整了几个参数,修改了提示词中的“黄昏”为“暴风雨前夕”,再次生成。如此重复数十次后,她选中了一个版本,将其拖入时间线。
这个镜头没有胶片,没有摄影机,没有灯光师,没有演员,甚至没有一个传统意义上按下的“快门”。
但它是一个合法的“作品”吗?如果是,谁是它的“作者”?如果这个镜头恰好与某部既有电影中的画面高度相似,谁该为“侵权”负责?


这些问题曾经是法学家脑海中的思想实验。
但2025年,随着全球首部AIGC大电影《海上女王郑一嫂》的公映将这些思想实验砸向了现实法庭、立法机构和版权登记系统的桌面。
这部90分钟的AIGC影片并非某次黑客攻击泄露的“AI实验品”,而是经过新加坡政府和马来西亚政府批准、正式进入院线公映的商业作品。它的存在本身就是一个宣告:AIGC不再是辅助工具的配角,而是正在走向一线的全球商业化内容生产的主力。
然而,现行版权法体系对此毫无准备。
这套诞生于印刷时代的制度,其核心预设——作者是自然人、创作是“意图→表达”的确定性映射、侵权是“复制→传播”的可追溯链条——在扩散模型的概率性生成机制面前逐一失效。
正如有学者所言,“著作权法面临的核心挑战,不是在人类与机器之间划定一条简单的归属界限,而是在创作形态发生深刻转变的背景下,准确识别并有效保护那些真实存在却难以被传统认定标准捕捉的人类创造性贡献”。

本文的核心命题是:AIGC技术的冲击不是对现行版权法的“修补”需求,而是对其底层逻辑的根本性颠覆。这种颠覆正在催生一场范式革命——版权保护正从“后置式损失弥补”转向“前置化版权保护”。在这一新范式中,版权保护不再是在侵权发生后的诉讼救济,而是从创作行为开始的第一刻起,通过技术手段实现嵌入式的确权、追溯与保护。
这一转向的深层意涵在于:人类的创造力并未消失,而是发生了从“执笔作画”到“建构系统”的迁移;法律需要回应的核心问题,不是“机器能不能是作者”,而是“在人机协同的连续光谱中,如何识别、量化和保护人类的创造性贡献”。
二、系统的产物:《海上女王郑一嫂》的技术人类学考察
(一)一组数字的震撼
在进入法律分析之前,有必要先理解《海上女王郑一嫂》作为“研究对象”的技术实态。
这部电影的制作涉及以下关键数字:
参与主体:来自13个国家和地区,超过130位创作者;
协作模式:纯远程协作,95%创作者上映前从未见过面;
AI数字演员:上千位角色由AI生成;
AIGC镜头:数十万个AI生成镜头;
制作周期:相比于传统电影缩短了80%以上;
制作成本:据估计仅为同等体量传统电影的5%-10%。
这些数字不是“特效”的另一种说法。在传统电影中,“特效”仍然建立在人类艺术家逐帧雕琢的基础上。而《海上女王郑一嫂》的逻辑恰恰相反:人类的角色从“执行者”转变为“设定期望者”——他们不画、不拍、不演,而是通过设计工作流、调整模型参数、撰写提示词、筛选生成结果来“炼制”电影。


(二)从“拍摄”到“系统控制”的范式转移
FizzDragon公司将自己定位为“AIGC内容引擎”,而非单纯的电影公司。
这一自我定位精准地揭示了AIGC电影生产的核心特征:创作者不是在“制作”一部电影,而是在“构建”一个能够生成电影的系统。
我们可以用以下对比来凸显这一差异:
这一范式转移的实质是:人类的创造力从“操作层面”上移到“元层面”。创作者不再关心“这个像素怎么画”,而是关心“什么样的提示词语义空间能稳定输出我想要的风格”。他们不是在写剧本,而是在写“能够生成符合剧本的镜头的系统规则”。
(三)概率性生成对“创作”概念的冲击
然而,正是这种“元层面”的创作方式,给法律认定带来了根本性挑战。
全球范围内传统版权法律的核心预设是:人类意图与最终表达之间存在一对一的确定性映射。当我写下一段文字、按下一次快门、画下一笔颜料,我知道我在做什么,结果与意图之间的关系是透明的、可预期的。



但是AIGC的逻辑恰恰相反。
因为即便是最先进的视频生成模型,其内部运算在本质上也是概率性的。即便创作者输入了极其详尽的提示词并施加了精细的镜头约束,模型在随机种子的作用下,每次生成的像素排列依然具有相当程度的不确定性。
这意味着,人类意图与最终画面之间不再是“输入A必然得到B”的确定性关系,而是一种“在约束条件下采样”的概率性关系。
这不是“工具更智能了”那么简单。照相机虽然自动完成了光学成像,但摄影师按下快门时,几乎可以完全预期最终照片的内容——因为光学成像是确定性的物理过程。而扩散模型不是物理过程,是统计过程。当我输入“郑一嫂站在船头”时,模型可能生成一个正面特写,也可能生成一个侧面剪影,取决于那个我永远不知道的“随机种子”。
这一差异不是“程度差异”,而是“类型差异”。它意味着,在AIGC生产中,“创作”不再是“我知道我在创造什么”,而是“我知道我在创造一个能够生成某种东西的系统”。法律要保护的,不再是一个“结果”,而是一套“约束条件系统”。
我个人认为,这正是“前置化版权保护”概念诞生的技术土壤。这也是非常值得全球版权法律界重点关注的地方。


三、结构性失灵:现行版权法的三重困境
《海上女王郑一嫂》所代表的AIGC电影生产模式,对现行版权法的冲击可以从三个相互交织的层次来把握。
(一)第一重困境:可版权性认定的“因果关系断裂”
现行著作权法以“人类独创性表达”为保护前提。这一标准的隐含预设是:人类意图与作品表达之间存在可追溯、可验证的因果链条。司法实践中,法官可以通过审查“创作者做了什么”来判断“作品是否体现了人类的创造性贡献”。
但在AIGC的扩散模型面前,这一因果链条断裂了。
问题不在于“人类有没有贡献”——《海上女王郑一嫂》的130多位创作者显然有贡献。问题在于:法律无法用原有的概念工具来“识别”和“量化”这种贡献。
2023年北京互联网法院审理的“李某诉刘某案”(即“AI文生图案”)首次正面回应了这一困境。
法院认定,原告通过“设计正负向提示词、设定迭代步数与图像生成数量、多次调整参数直至产出符合创作预期的图像”,在整个过程中体现了“个性化表达和智力投入”,因此涉案AI生成图像应作为美术作品受著作权保护。
这一判决的智慧在于:它将审查的重心从“谁执行了表达”转向了“谁控制了表达的形成”——即从“结果中心主义”转向“过程+结果”双重审查模式。


但这一智慧也暴露了它的边界。
“李某案”处理的是一张图片,而《海上女王郑一嫂》是90分钟的电影、数十万个镜头、上千个AI角色。在如此大规模的生产中,“提示词迭代记录”将是一份天文学级别的文档。
法院不可能逐条审查每个镜头的“控制力证据”。更根本的问题是:即便审查了,也很难判断某个镜头的“独创性”究竟来自用户的提示词,还是来自模型的概率性涌现。
这不是司法技术的细节问题,而是触及了版权法的认识论根基:当创作变成人机协同的概率性过程,我们还能否在“人类独创性”与“作品”之间建立法律所需的因果关系?
(二)第二重困境:权利归属的“分布式主体”难题
即便我们承认AIGC电影可以享有版权,下一个问题是:版权归谁?
《海上女王郑一嫂》的案例让这个问题变得极其棘手。其制作涉及的主体包括:
基础模型开发者:提供底层的视频生成能力(如使用了某家大模型公司的API);
LoRA模型训练者:针对“郑一嫂”这一特定角色训练了专属的风格模型;
工作流搭建者:设计了将提示词→生成→筛选→拼接的全流程架构;
提示词工程师:撰写了成千上万条具体的生成指令;
筛选与编辑者:从海量生成结果中选出可用的镜头并进行后期处理;
出品方/制片人:组织、协调、投资了整个项目。
现行版权法对此类“分布式贡献”缺乏制度安排。
因为传统的合作作品规则要求“共同创作合意”,而《海上女王郑一嫂》的130多位创作者分散在全球各地,许多人从未见过面,很难说有明确的“合意”。
委托作品规则要求“双方约定”,但这里的参与方远不止两方。汇编作品规则或许可以适用于“筛选”环节,但无法覆盖生成环节的贡献。
有学者提出“作者链”理论,主张按贡献度分配权利。但贡献度如何量化?提示词工程师的2000条提示词和筛选者的2000次点击,谁的贡献更大?LoRA模型训练者投入了200小时调参,但最终电影只用了该模型生成的3个镜头,这又该如何计算?
更棘手的是:现行法还可能产生“反向激励”。
如果法律倾向于将所有权利归于用户(即最终输出者),那么基础模型开发者和LoRA训练者将没有任何激励去投入研发——因为他们的贡献在法律上“消失”了。但反之,如果将权利归于平台,又会引发垄断和剥削的担忧。
(三)第三重困境:侵权认定的“实质性相似”失灵
AIGC带来的最大法律难题,可能不是“保护谁”,而是“谁被侵害了”。
AIGC模型的训练过程需要摄入海量数据,其中大量数据是受版权保护的作品。
当模型学习了这些作品的“风格”“构图”“色彩倾向”后,生成的“新”内容可能在统计意义上与某部既有作品高度相似,但又绝非直接的复制或改编。
现行版权法的侵权认定依赖于“实质性相似”标准。但这一标准在AIGC场景下面临“双重失灵”。
第一重失灵:因果关系的证明困境。权利人主张侵权,需要证明被告的作品与其作品构成实质性相似,且被告有“接触”其作品的机会。
但在AIGC场景下,即便生成物与某部既有作品高度相似,权利人如何证明这种相似源于模型训练时摄入了其作品,而非源于公共领域元素的巧合?
如果模型可能通过合法数据习得类似风格,或相似性源于公共领域元素、思想层面重合,而非对具体作品的复制,那么算法的“黑箱”特性使得因果关系举证极为困难。
第二重失灵:侵权主体的分配困境。即便认定了侵权,谁该负责?是输入侵权指令的用户?是训练了侵权模型的开发者?是提供生成服务的平台?2026年上海知识产权法院审理的“美杜莎案”提供了一个重要的参照。
在该案中,用户李某截取《斗破苍穹》动漫中的“美杜莎”角色形象图片,在某AI平台上训练了LoRA模型并公开发布,其他用户可通过该模型生成与美杜莎形象实质性相似的图片。权利方起诉李某(直接用户)和平台运营方H公司。
法院的判决体现了审慎的利益平衡:认定李某侵害复制权和信息网络传播权,判赔5万元;但认定平台H公司不构成侵权,理由是其提供的技术服务具有“实质性非侵权用途”,且已履行了“通知-删除”义务。
这一判决的启示在于:法院正在尝试构建“控制力决定责任”的分配逻辑——谁对侵权行为有更强的控制能力,谁就承担更高的注意义务。
用户直接控制输入和生成指令,应承担直接侵权责任;平台提供的是技术服务,在无过错的情况下可适用“避风港”规则。
但问题在于,“美杜莎案”处理的是相对简单的LoRA模型训练场景。当面对《海上女王郑一嫂》这样的大型电影项目时,控制力的分配将复杂得多。
用户、平台、模型开发者、LoRA训练者、工作流搭建者——谁对哪个镜头的哪种“相似性”有控制能力?这种控制是“确定性控制”还是“概率性影响”?现行法尚无法给出答案。
(四)困境的本质:从“确定性世界”到“概率性世界”的认知断裂
上述三重困境并非彼此孤立的“技术问题”,而是同一个深层断裂的不同表现。
我们现行版权法律是一套为“确定性世界”设计的制度。
它假设:创作是可追溯的因果过程,权利是可分割的财产单元,侵权是可证明的事实比对。
在过去三百年里,这套制度运转良好,因为它与人类创作的实际过程大致吻合——即便在摄影、电影、计算机软件等技术革命之后,制度的底层逻辑仍然适用。
但今天,AIGC将我们带入了“概率性世界”。在这个新世界中,因果链条断裂了,权利主体分散了,侵权比对失效了。法律不是“需要调整”,而是“需要重写底层代码”。
这就是“范式革命”的含义:不是对现行规则的修补,而是对规则背后认知框架的更换。
四、范式革命:从后置式损失弥补到前置化版权保护
(一)“前置化保护”的实质内涵
面对AIGC带来的系统性冲击,一个根本性的洞见正在浮现:传统版权保护的“后置式”逻辑——等侵权发生、等起诉、等判决、等赔偿——在AIGC时代将彻底失效。
原因很简单:在AIGC的生产逻辑下,侵权行为可以在“不可见”的层面发生。
当用户输入提示词生成了一张与某部电影画面高度相似的图片,这个侵权不是在“传播”时发生的,而是在“生成”的那一刻发生的。
但如果权利方不知道这张图片的存在(在数亿张AI生成图片中,这是大概率事件),侵权就不会被发现、被追责。
更根本的是:即便被发现了,权利方也很难证明相似性源于其作品被用于训练而非巧合。后置式救济的逻辑在概率性生成面前,变成了不可能完成的任务。

因此,我认为,我们必须建立一种AI时代的全新版权法律保护的新范式:前置化版权保护。
“前置化”不是字面意义上的“提前保护”,而是具有三层递进含义的制度设计:
第一层:时间上的前置——保护从创作行为发生的第一刻起启动,而非等到侵权发生后。这意味着,当一位用户输入提示词、调整参数、生成图片时,这一“创作行为”本身就被记录、验证、锚定,形成不可篡改的证据链条。
第二层:空间上的前置——保护从“结果端”前移到“输入端”和“过程端”。传统版权法只关注“作品”这个结果;前置化保护则关注“提示词”“参数设置”“工作流设计”等创作过程的投入——因为这些“过程性资产”才是AIGC时代真正体现人类创造力的载体。
第三层:逻辑上的前置——保护从“人工审查”转向“技术内置”。未来的版权保护不是“等法官来判断”,而是通过技术手段(如区块链存证、水印嵌入、模型约束)将保护规则直接写入创作系统和生成模型。侵权不是在“发生后”被惩罚,而是在“发生前”被阻止。
(二)技术如何使“前置化”成为可能
“前置化保护”不是空中楼阁。它之所以可能,恰恰是因为AIGC技术本身提供了传统创作时代不具备的条件。
第一,全过程可记录。在传统创作中,创作者的“心路历程”是不可见的——我们无法知道一个作家在写出某句话之前想了什么。但在AIGC创作中,一切操作都是数字化的、可追溯的。提示词、参数、种子值、迭代次数、筛选记录——所有这些都可以被自动记录和存证。
比如我们可以以要求AI视频创作平台“履行存证义务,提示词、参数、时间戳等关键记录留存不低于90日。


第二,确权可即时化。在传统版权制度中,“创作完成”与“权利确认”之间存在时间差——作者需要在侵权发生后证明自己“在某个时间点之前已经完成了创作”。
而在AIGC场景中,区块链技术可以将创作过程的哈希值实时上链,形成不可否认的时间戳证据。当每个镜头生成的那一刻,它的“出生证明”就已经被写入分布式账本。
第三,侵权可预防化。最理想的前置化保护,不是在侵权发生后去追责,而是在生成阶段就阻止侵权的发生。这可以通过在模型中嵌入“版权过滤器”实现:当用户的生成请求可能产生侵权内容时,模型自动拦截或替换。
据了解类似技术已经在部分平台上试点。当然,这涉及“技术措施”与“合理使用”之间的平衡,需要精细的制度设计。
第四,贡献可量化。AIGC的创作过程产生了海量的过程数据,这为“量化人类贡献”提供了可能。通过分析提示词的复杂度(如长度、语义丰富度)、参数的精细度(如偏离默认值的幅度)、迭代的次数和效率,可以在一定程度上测算用户在生成结果中的“控制力强度”。这为按贡献度分配权利提供了技术基础。
(三)从“损失弥补”到“价值创造”:保护逻辑的根本转变
前置化保护并非仅仅在“技术上更可行”,它蕴含着对版权制度根本目的的重塑。
传统版权保护的逻辑是“损失弥补”:侵权发生后,计算权利人的损失,要求侵权人赔偿。这是一种“向后看”的救济逻辑——它关注的是“已经发生的损害”。
前置化保护的逻辑则是“价值创造”:它关注的是“如何通过制度设计,激励更多的人投入到AIGC创作中,创造更多的文化价值”。它不是等损害发生了再去补救,而是通过降低确权成本、明晰权利边界、预防侵权发生,从源头上促进创作生态的繁荣。
这一逻辑转换的深层意涵在于:版权制度从“保护已有成果”的防御性工具,转变为“激励未来创造”的建构性力量。


传统版权法的正当性基础,正是“激励创作”——通过赋予创作者排他权,鼓励更多人投入创作。
但在AIGC时代,这一逻辑面临新的挑战:如果创作的门槛大大降低、成本大幅下降,我们是否还需要那么强的排他权来激励创作?如果AI可以“源源不断地生产内容”,人类的“独创性贡献”是否还有保护的必要?
这些问题没有简单的答案。
但可以肯定的是:AIGC不会使版权制度消亡,而是会使其发生形态转换。保护的对象从“作品”转向“系统控制力”,保护的方式从“后置救济”转向“前置嵌入”,保护的逻辑从“损失弥补”转向“价值创造”。
五、新范式的制度架构:从“创造性控制力”到“分层确权”
(一)“创造性控制力”作为核心认定标准
前置化保护范式的核心,是建立一套能够识别、量化和保护人类在AIGC创作中创造性贡献的制度工具。当前学界和司法实践中最具潜力的方案,是以用户的“创造性控制力”作为独创性认定的核心标准。
“创造性控制力”标准的实质,是将审查重心从“谁执行了表达”转向“谁控制了表达的形成”。它不是问“用户有没有按下生成键”,而是问“用户是否通过其操作,对最终生成内容的独创性表达施加了实质性的控制”。
基于这一标准,我认为可以构建“弱、中、强”三级控制力的审查框架:
| 弱控制 | ||
| 中控制 | ||
| 强控制 |
这一框架的优势在于:它将“控制力”变成了一个有梯度的、可操作的分析工具,而非一个全有或全无的抽象判断。法官不需要回答“用户有没有独创性贡献”这个过于笼统的问题,而是需要审查用户在具体维度上的控制力强度。
(二)从“固定”到“受控固定”:修正构思决定论
在传统版权理论中,摄影作品的独创性建立在“可视化构思+机械固定”的二元要件之上。摄影师通过构思画面(可视化构思),然后按下快门将画面“固定”在底片上(机械固定)。
这一框架成立的前提是:按下快门的瞬间,镜头前的画面与最终照片之间存在确定性映射。
但AIGC的生成过程不具有这种确定性。因此,有学者主张将“机械固定”修正为“受控固定”,并增设“创作记录”要件。
“受控固定”要求:用户通过合理的技术操作,保障其独创性构思是AI生成最终表达的有效原因。它不是要求用户“亲手完成”表达,而是要求用户的操作与最终表达之间存在可验证的控制关系。
“创作记录”则要求:用户保留其在创作过程中的关键操作记录,作为证明其“受控固定”的必要证据。这包括提示词迭代历史、参数调整记录、生成时间戳、筛选和后期修改记录等。
这两个要件的实质,是将AIGC创作的“黑箱”打开,使其过程变得可审查、可验证。这正是“前置化保护”的技术基础——保护不是“等结果出来再说”,而是从过程记录开始。
(三)权利归属的分层确权规则
在“控制力”标准的基础上,可以构建一套分层确权的规则体系:
第一层:强控制场景——用户享有完整著作权。当用户通过多轮迭代、精细参数调整、深度后期修改等方式对生成内容施加了强控制时,该用户可被视为“作者”,享有完整的著作权。这是“李某案”所确立的基本规则。
第二层:中控制场景——个案认定贡献度。当用户处于中等控制力层级时,需要结合生成内容的独特性、用户投入的强度和结果与投入之间的关联性,个案判断是否给予保护以及保护的范围。
第三层:弱控制场景——归入公共领域或赋予邻接权。对于仅输入简单提示词、未进行实质性干预的生成物,不应给予著作权保护,以维护公共领域。但考虑到商业利用中对“便捷生成”的需求,可考虑赋予一种有限的邻接权(比如3-5年的商业用益权),以平衡各方利益。
第四层:多方贡献场景——协议优先,贡献度补充。在《海上女王郑一嫂》这样的多人协作场景中,应首先尊重各方的协议约定。在无协议的情况下,可参考各方的“控制力贡献度”进行分配——这需要进一步的技术标准和行业共识。
(四)侵权责任的控制力逻辑
前置化保护范式的另一个重要维度,是侵权责任分配规则的相应调整。
核心原则是:控制力决定责任——谁对侵权行为的发生有更强的控制能力,谁就承担更高的注意义务和更重的责任。
用户责任:遵循过错原则。如果用户输入的提示词精确指向他人作品(如“生成一张与电影花样年华中梁朝伟一样的人像”),或对生成内容进行实质性编辑后仍构成实质性相似,应承担直接侵权责任。
平台/开发者责任:注意义务与技术可行性挂钩。“美杜莎案”确立的规则是:平台提供的技术服务具有“实质性非侵权用途”时,不自动承担侵权责任;但若平台有能力(以合理成本)识别和阻止侵权而未作为,则可能承担间接责任。
责任豁免:“通知-移除”规则在AIGC场景下仍然适用,但需要调整。由于侵权内容不是用户“上传”的,而是“生成”的,平台可以采取的技术措施不是“删除”而是“阻止后续生成”或“屏蔽呈现”。


六、范式转移的深层意涵:人机关系的再定义
前置化保护范式的兴起,不仅是法律技术的调整,更折射出AIGC时代人机关系的根本性重构。这一重构可以从三个层面来理解。
(一)创造力的转移:从“手”到“脑”再到“系统”
人类创造力的栖息地正在发生历史性的转移。
在手工时代,创造力栖息于“手”——工匠的手艺是创造力的直接体现。在工业时代,创造力部分转移到“脑”——工程师的设计是比工人的操作更重要的创造。在数字时代,创造力进一步抽象化为“算法”——程序员的代码决定了软件的行为边界。
而在AIGC时代,创造力转移到了“系统层面”。最具创造性的不再是某个具体的作品、某个精巧的提示词、某个调优的参数,而是“能够持续生成高质量内容的整个系统”——包括工作流设计、模型组合策略、质量筛选机制、人机协作协议。
这意味着:未来版权法要保护的“创造性贡献”,将越来越多地表现为“建构系统的能力”而非“制作作品的能力”。
《海上女王郑一嫂》的创作者之所以值得保护,不是因为他们“画”出了一个精彩的镜头,而是因为他们构建了一套能够稳定生成符合叙事需求的镜头语言的系统。
(二)边界的确立:从“人与机”的二分到“控制与涌现”的光谱
现行版权法的困境,很大程度上源于一种“人与机”二元对立的思维方式:要么是人类创作(受保护),要么是机器生成(不受保护)。
这种二分法在AIGC面前彻底失效,因为AIGC的产出永远是“人机协同”的产物——没有人的指令就没有生成行为,没有模型的能力就没有生成质量。


前置化保护范式的认知突破在于:它不再追问“这是人做的还是机器做的”,而是追问“人施加了多大程度的控制,机器贡献了多少‘涌现’能力”。这是一个连续光谱,而非二元切分。
在光谱的一端,是用户输入“画一只猫”这种极简指令——控制力极弱,生成内容几乎是模型的“自主涌现”,不应给予著作权保护。
在光谱的另一端,是《海上女王郑一嫂》的创作者通过数千条提示词、数百个参数、数十轮迭代来“炼制”一个特定镜头——控制力极强,模型的“涌现”被压缩在极小的可能性空间内(尽管仍然存在不确定性),应给予充分的著作权保护。
中间地带则是最复杂也是最有意思的:当用户的控制力与模型的涌现能力以某种创造性方式互动时,法律如何分配权利和责任?我认为这可能成为未来十年版权诉讼的核心战场。
(三)责任的分配:从“确定性归因”到“风险分配”
传统侵权法的核心是“因果关系的证明”——原告需要证明被告的行为导致了损害。但在AIGC的概率性世界中,因果关系的证明往往是不可能的(如前所述,无法证明相似性源于训练数据的侵权使用)。
前置化保护范式提供了一种替代性思路:从“确定性的因果归责”转向“概率性的风险分配”。
这意味着:法律不再强求证明“这个侵权内容一定是由那个侵权训练数据导致的”,而是评估各方主体的风险控制能力,将责任分配给最能以合理成本预防风险的一方。这是一种更接近于“危险责任”或“严格责任”的逻辑——不是为了惩罚过错,而是为了分配风险和激励预防。
这一转向在“美杜莎案”中已有体现:法院认定平台不构成侵权,不是因为“平台没有过错”,而是因为“侵权行为尚未明显到施加一般的注意力就能发现的程度”。
这实际上是在评估平台的风险预见能力和预防成本——在这个特定场景下,法律认为平台不应承担超出其能力范围的注意义务。
可以预见,未来关于AIGC侵权的法律争议,将越来越多地从“证明因果关系”转向“评估风险控制能力”——谁最有能力、以最低成本预防侵权,谁就应承担相应的责任。
七、结论:人类创造力的新形态与法律的回应
我们正处于一个历史性的转折点上。
《海上女王郑一嫂》不仅仅是一部AIGC电影,它是一面镜子,映照出人类创造力在AIGC时代的全新形态——更加抽象、更加系统化、更加依赖于人机协同。
这一转折对法律制度的挑战是根本性的。现行版权法是为“确定性世界”设计的制度,其核心概念——人类作者、独创性表达、实质性相似——在AIGC的概率性生成逻辑面前正在失去解释力和适用性。
本文论证的核心命题是:AIGC正在推动一场从“后置式损失弥补”到“前置化版权保护”的范式革命。这场革命不是对现行规则的修补,而是对制度底层认知框架的更换。在前置化保护的新范式中:
保护的时间维度被重构——从侵权发生后前移到创作发生的第一刻起,通过技术手段实现即时确权和过程存证;
保护的客体维度被重构——从“作品”这个结果扩展到“提示词”“参数设置”“工作流设计”等体现人类控制力的过程性资产;
保护的逻辑维度被重构——从“损失弥补”的向后看逻辑转向“价值创造”的向前看逻辑,制度的目标从“惩罚侵权”转向“激励创作”;
责任分配的依据被重构——从“确定性因果关系的证明”转向“风险控制能力的评估”,谁最有能力预防风险,谁就应承担责任。
这一范式转移的深层意涵在于:AIGC并未终结人类在创作中的主体地位,而是将这种主体性迁移至一个更为隐性、更为工程化的操作层面。
法律最大的意义是保护人民,法律如果不能保护人民,则毫无意义。法律的核心任务,不是在人类与机器之间划定一条简单的归属界限,而是在人机协同的连续光谱中,准确识别、量化和保护那些真实存在——却难以被传统标准捕捉的——“人类创造性贡献”。

对于中国而言,这一范式转移既是挑战也是机遇。
挑战在于:我们的版权法体系需要深刻重构,司法实践需要统一裁判标准,产业需要明确的合规指引。
机遇在于:在这场全球性的制度创新竞赛中,中国拥有全球最活跃的AIGC应用生态、最丰富的司法实践样本(从“李某案”到“美杜莎案”),以及相对务实的制度调整能力。
如果在“前置化保护”这一新范式的制度构建中率先形成成熟方案,中国有可能在全球AIGC治理规则的形成中占据引领地位。
《海上女王郑一嫂》的片尾字幕上,列着130多位创作者的名字。他们来自13个国家和地区,许多人从未见过面,但他们的创造力在AI的媒介下汇聚成了全球第1部政府批准走进院线公映的AIGC电影。
这或许是AIGC时代版权法的最好隐喻:版权保护的不再是一个孤独的天才在稿纸前的“顿悟”,而是无数个体的人机协同创造在网络中的“汇聚”。法律要做的,不是用旧时代的尺子去丈量新时代的创造,而是为这种新型创造提供与其真实贡献相称的制度空间。

夜雨聆风