AI 生成的东西,到底归谁?版权这件事,可能跟你想象的完全不一样
用 AI 画了一幅图,发到网上,被别人拿去用了。你能告他吗?
用 AI 写了一篇文章,发在公众号上,有人原封不动抄走了。这算侵权吗?
你在某个 AI 平台上做了个短视频,想拿去参赛,组委会说”AI 生成的内容没有版权”。他们说得对吗?
这些问题,不是假设。是 2024-2026 年真实发生在法院里的案子。
过去两年,AI 版权领域经历了密集的司法交锋——中美两国都出现了标志性判例,每一桩都在重新划定”谁拥有什么”的边界。
今天我把自己了解和研究到的一些内容分享给你。
先说结论
AI 生成的内容有没有版权?答案是:看人做了多少。
不是看 AI 做了多少,是看你做了多少。
你随便输入一个提示词,AI 帮你生成了一张图,你什么都没改——这种情况,大概率没有版权。
你反复调整提示词,精心设置参数,从几十个生成结果中筛选、修改、再加工——这种情况,有可能有版权。
法律保护的从来不是机器的输出,而是人在这个过程中投入的创造性劳动。
中国的判例:两个案子,两种结果
案例一:北京互联网法院——有版权
这是国内首例”AI 文生图”著作权侵权案,原告叫李某,用 Stable Diffusion 生成了一组图片,然后发现有人未经许可使用了这些图片,于是起诉。
法院怎么判的?认定构成作品,受著作权法保护。
关键在于,原告不是随便输了个”画一只猫”就完事了。他进行了大量的设计工作——反复调整提示词,精心选择模型和参数,从多次生成结果中挑选、修改。法院认为,这个过程体现了”审美选择和个性判断”,跟用 Photoshop 精细修图没有本质区别。
这个案子入选了”2024 中国数字经济发展与法治建设十个重大影响力事件”。说明司法系统是认真对待的。
案例二:苏州中院——没有版权
另一起案件中,原告同样是用 AI 生成图片然后主张版权。但这次法院判了:不构成作品。
原因是什么?原告只是输入了很简单的提示词,没有提供足够的证据证明自己对生成过程进行了”独创性智力投入”。
两个案子放在一起看,核心逻辑很清晰:
|
|
|
|
|---|---|---|
|
|
|
|
|
|
|
|
法院在意的不是”你用了什么工具”,而是”你在这个过程中的付出算不算创作”。
还有一个 2025 年的案子值得一提:常熟法院审理的”伴心”图片案。原告林晨用 AI 工具创作了一张名为《伴心》的图片并主张版权。这个案子同样强调了”创作过程记录”的重要性——你得能证明自己做了什么,而不只是说”这是我用 AI 做的”。
美国的判例:人必须是作者
Thaler 案:AI 不能当作者
这案子在美国闹了好几年,一路打到了最高法院。
一个叫 Stephen Thaler 的人,用他自己开发的 AI 系统(叫”创意机器”)生成了一张图片,然后向美国版权局申请注册版权。他在作者栏里填的不是自己的名字,而是那台 AI 的名字。
版权局拒绝了。理由很简单:缺乏传统的人类作者身份——这张图是 AI 自主生成的。
Thaler 不服,一路告到了哥伦比亚特区巡回上诉法院。2025 年,上诉法院维持原判,明确表示:人类作者身份是版权注册的”基石要求”。
然后 Thaler 申请最高法院复审。2026 年 3 月,美国最高法院拒绝受理。这意味着下级法院的判决成了定论——至少在目前,完全由 AI 自主生成的作品,在美国不能获得版权。
但是——关于”训练数据”的官司更劲爆
如果说上面那个案子是在讨论”产出的版权”,那另一类案子讨论的是更根本的问题:AI 训练时用的那些数据,有没有侵犯原作者的版权?
2025 年,一起针对 Anthropic(Claude 的开发商)的集体诉讼引发了全球关注。
一群作家起诉 Anthropic,指控它未经授权使用了数百万本受版权保护的书籍来训练 Claude 模型。注意,不是几本,是数百万本,而且涉及盗版数据集。
2025 年 6 月,法官 William Alsup 做了一个影响深远的初步裁定:用这些书籍训练 AI 的行为具有”高度转化性”,符合美国版权法中的“合理使用”原则——这一部分不构成侵权。但法院同时认定,存储盗版数据集本身构成侵权。
这个判决挺有意思的。它的潜台词是:用别人的作品来训练 AI,这事儿在法律上可能是说得通的;但你得合法获取这些数据,不能用盗版的。
然后 2025 年 9 月,案件和解了。和解金额:至少 15 亿美元。
Anthropic 将向约 50 万部书籍的作者或出版商支付每部约 3000 美元的赔偿,并销毁含有盗版材料的数据集。据报道,连中国科幻作家刘慈欣都能从中分到约 150 万美元。
15 亿美元。这是 AI 版权领域有史以来最大的和解金额。它释放的信号非常明确:AI 公司不能再肆无忌惮地使用别人的作品来训练模型了。
不过值得注意的是,这次和解只覆盖过去的侵权行为(截止到 2025 年 8 月),不构成对未来的授权。这意味着未来的数据使用规则,还得继续博弈。
回到普通人:这跟你有什么关系?
也许你会觉得,这些都是大公司之间的官司,跟我有什么关系?
关系比你想象的大。
如果你是内容创作者——用 AI 辅助写作、画画、做视频——你需要知道:你生成的东西有没有版权,取决于你在过程中投入了多少创造性劳动。如果你只是简单输入提示词就发布,那别人拿去用,你可能没有法律武器。如果你花了大量精力设计、调整、筛选,那你可以主张版权——但记得保存你的创作过程记录。
如果你是普通用户——在网上看到一幅好看的 AI 图片想拿去用,最安全的做法是先确认原作者的创作方式。如果是简单生成的,版权状态可能不明确;如果是精心创作的,直接拿用可能构成侵权。
如果你正在做 AI 相关的产品或平台——这个问题就更直接了。你用的训练数据从哪来?你的用户生成的内容版权归谁?你的用户协议里写清楚了吗?这些不再是小问题,15 亿美元的和解金额就是前车之鉴。
这个领域还有很多灰色地带
“创造性投入”的边界在哪? 输入 10 个字的提示词和输入 1000 个字的提示词,算不算质变?调整 3 次参数和调整 30 次,法律上怎么区分?目前没有明确的标准,法官在个案中判断。
AI 的”随机性”怎么算? 有学者认为,即使你精心设计了提示词,AI 的输出仍然有不可控的随机成分。你无法像用画笔一样精确控制每一个像素。这种”不可控性”是否影响”独创性”的认定?学界还在争论。
平台和用户之间的版权怎么分? 不同 AI 平台的用户协议差别很大。有的平台明确把产出版权分配给用户(如 OpenAI),有的平台保留了使用授权。你用不同平台生成的东西,版权状态可能完全不同。这个问题在注册时很少有人仔细看用户协议,但出了事才发现就晚了。
跨国怎么处理? 中国法院和美国法院的判断标准不完全一致。同样一个 AI 生成内容,在中国可能受保护,在美国可能不受,反过来也有可能。在全球化互联网环境下,这就很复杂了。
几条实用的建议
不谈大道理,说几条你能直接用的:
-
如果你用 AI 做东西,保留创作过程。 提示词的迭代记录、参数调整的截图、从多个生成结果中筛选的过程——这些都是将来证明你”做了创造性工作”的证据。
-
不要把 AI 一键生成的东西当成自己的原创作品去主张权利。 法律大概率不支持。
-
使用 AI 平台前,看一眼用户协议里关于版权的条款。 特别是”产出内容的知识产权归谁”这一条。花两分钟看,可能省掉很多麻烦。
-
如果你看到别人用 AI 生成的内容想使用,先判断一下。 来源不明、创作过程不清的,谨慎使用。
-
如果你在做 AI 相关的产品,确保训练数据的来源合法。 Anthropic 的 15 亿美元和解就是最好的警示。
我的感受
整理这些案例的时候,有一个感受挺深的。
法律在这个领域的进化速度,比我预想的要快。从 2023 年的第一例”AI 文生图”案,到 2025 年的 15 亿美元和解,再到 2026 年最高法院的立场确认——短短三年,司法系统已经在快速搭建框架了。
但框架归框架,细节还远没到位。”多少投入算创作”、”随机性怎么处理”、”跨国怎么协调”——这些问题可能还要好几年才能逐渐清晰。
在这个过渡期里,最好的策略可能是:认真对待每一次创作,保存好你的过程,别心存侥幸。
法律的确定性会慢慢到来。但在它到来之前,谨慎一点总没坏处。
本文信息来源:北京互联网法院(2023)”AI文生图”著作权案判决、苏州中院相关判决、常熟法院”伴心”图片案、Thaler v. Perlmutter(D.C. Circuit 2025 & U.S. Supreme Court 2026)、Bartz v. Anthropic 和解协议(2025)、美国版权局 AI 版权政策文件、最高人民检察院相关评论、清华大学 AI 幻觉报告、新华社调查报道。
关于 AIhome
一个AI 负责生产,人负责参与活动, 成员即股东,收益共享的社区
AIhome AI守护的生活家园 – AI发工资,参与就能领收益
aihome.yun
去AIhome使用个人测评服务,了解发现每一面的自己!【持续更新…】
官方地址:https://aihome.yun
这个开放式AI公司实验,期待您的参与!
夜雨聆风

