AI人格蒸馏火爆,朋友动手前问我,能不能做?
最近人格蒸馏在AI圈风行,有人做了特朗普、雷军、英剧《是,大臣》里汉弗莱爵士等人格化Skill。一名在做AI相关工作的朋友关注到这股风潮后,想尝试做一款AI人格化Skill或蒸馏一个模仿某机构媒体写作风格的Skill进行开源使用,动手之前来问我:能不能做?
我懂其疑问的具体指向,即有无法律风险。过往几年,我常报道AI的法律适用问题。2022年12月,我和同事在报道ChatGPT时,就分析了AI大规模应用存在的法律风险,特别是著作权侵权及其所指向的“人类中心主义”的法律立场。之后几年各种AIGC第一案层出不穷,但在认定著作权侵权等问题上,法院均在现有法律框架内裁判。而这些案例已经为AI人格蒸馏(.skill)的侵权提供了充足的参考依据。
先说什么是人格蒸馏。这个概念借用了机器学习中知识蒸馏(knowledge distillation)的说法,把一个人的公开言论、著作、访谈、社交媒体发言等语料喂给大模型,提炼出说话风格、思维模式和表达习惯,编码为一个AI配置文件,主流表现形态是“.skill”。效果是AI能以这个人的口吻和用户对话。技术门槛不高,借助一些主流的AI工具就能跑起来,这也是各种“.skill”迅速流行的原因。
人格权侵权风险最直观
很多做AI人格蒸馏的人觉得自己只是在“玩AI”,没意识到他们将一头撞向《民法典》人格权编,其中对自然人的姓名权、肖像权等有明确规定。具体的法条可以直接查到,还是要放在具体案例中理解。北京互联网法院审理的“AI陪伴”案,与人格蒸馏几乎是同一个问题的早期版本。
这起案件的案情是,某科技公司开发了一款手机记账软件,用户可以在里面创设AI陪伴者,设置陪伴者的名称、头像和人物关系(男女朋友、兄妹等)。公众人物何某发现自己被大量用户设置为陪伴人物,用户上传了何某的大量肖像图片做头像,同时设置人物关系。该科技公司还用聚类算法把何某按身份分类,用协同推荐算法向其他用户推介,还提供了“调教”机制让用户上传互动语料。
在使用过程中,用户和该软件为何某制作了人物语料,并加入了系统推送,通过智能算法或AI自动回复,该软件可以根据话题类别、角色的人设特点等,在何某与用户的对话中向用户推送与其有关的“肖像表情包”和“撩人情话”,营造出与真人真实互动的使用体验。何某认为权益被侵害,将科技公司诉至法院。北京互联网法院审理认为,被告科技公司因算法应用应被认定为网络服务提供者,其行为侵犯了何某肖像权、姓名权、一般人格权,遂判决被告向原告公开赔礼道歉,赔偿原告精神损失20 000元,经济损失(含合理维权支出)183 000元。被告不服一审判决提起上诉,后撤回上诉,一审判决生效。
这个判决的核心逻辑可以平移到AI人格蒸馏Skill。虽然AI陪伴案中的法院认定侵权的被告是提供聚类推荐和“调教”机制的平台方,个人开发者制作人格蒸馏Skill的归责路径可能有所不同,但侵权事实的认定逻辑一致。AI陪伴案涉及的是肖像、姓名加一般人格权的复合侵害,很多人格蒸馏Skill只用了文本语料,不涉及肖像。用户上传语料“调教”AI陪伴者,和开发者用名人言论“蒸馏”Skill,法律实质都是在未经授权的情况下创设了一个模拟真人的AI角色。即便只有文本、没有肖像,《民法典》第990条第二款“其他人格权益”的射程仍然覆盖得到。
再看另一起AIGC侵害名誉权的案。被告在社交平台发布视频,提及某已故主播“每日直播15小时”“医生要求休息治病,遭团队催促直播”等内容。主播生前的直播机构认为被告所发内容虚构事实、贬损其声誉,将其告上法庭。被告抗辩称,视频文案非本人原创,系通过AI生成且内容有网络信息基础,不构成侵权。北京互联网法院指出,被告作为生成式人工智能服务的使用者,在利用AI生成内容制作并发布视频时,依法负有对相关信息进行必要核实的义务。由于被告既未注明信息来源,也未对来源真实性进行核查,涉案视频发布后,已有多名网友在评论区对原告作出负面评价,客观上造成了原告社会评价降低的损害后果,构成名誉权侵权,需依法承担相应责任。
这两个案子叠在一起,给人格蒸馏Skill画了一条很清晰的线:做一个模拟真人的AI角色,侵犯人格权;AI角色存在犯错的可能,不限于编造事实的AI幻觉,也包括说出有损人物形象或丑化人物的话,这属于侵害名誉权。《民法典》第990条第二款还留了一个兜底,自然人享有基于人身自由、人格尊严产生的其他人格权益。“人格蒸馏”这种把一个人的思维模式、表达习惯、价值判断整体复刻的行为,即便前面那些具体条文不能完美对应,权利人仍然可以从这个条款主张保护。
著作权问题也不简单
如果Skill的训练素材来自名人的书、专栏、演讲稿,或者像我朋友说的那样来自某家媒体的特稿,那么还有著作权侵权风险。
把文章全文从网上扒下来存到服务器上,这是复制。《著作权法》第10条第(五)项把“数字化”明确列为复制方式。
在上海首例人工智能大模型著作权侵权案中,李某使用一个AI平台的“训练LoRA”功能,将美杜莎图包作为训练素材投入,生成两款美杜莎LoRA模型。经过平台机审,被告李某将案涉美杜莎LoRA模型发布在自身账号中。其他普通用户使用案涉美杜莎LoRA模型时,通过输入不同提示词,能够生成与美杜莎形象相同或实质性相似的各种图片。著作权人将李某起诉后,金山区法院认定李某侵害了原告对“美杜莎”作品享有的复制权和信息网络传播权。这一认定覆盖了素材截取阶段及LoRA模型训练、发布及使用阶段的完整链条。
那AI训练过程本身算不算“复制”?文章被反复读取、模型参数不断调整,最终原文并不以完整形式存在于模型权重里,这个过程中到底有没有产生《著作权法》意义上的“作品副本”?目前学界对此存在争议。比如,数据投喂阶段的复制是否为“纯粹的内部复制”,要不要单独进行侵权评价等等。
从杭州互联网法院及杭州中院对奥特曼LoRA案的审理来看,司法倾向于“输入端宽松、输出端从严”的态度,即从判决结果分析训练行为可以宽容一点判,但如果输出内容再现了原作的表达,那就从严。杭州互联网法院在判决中也提到:在无证据证明生成式人工智能是为使用权利作品的独创性表达为目的、已影响到权利作品正常使用或者不合理地损害相关著作权人的合法利益等情形下,可以被认为是合理使用。
回到朋友的问题,蒸馏某家机构媒体的特稿做写作Skill,风险有多大?关键看“蒸馏”的深度。《著作权法》保护表达不保护思想,倒金字塔结构、白描手法、场景化开头,这些写作技巧本身不受保护。但如果写作Skill输出的文章在叙事结构、段落编排、修辞组合上跟原文高度相似,“学风格”滑向了“搬表达”,那就构成著作权侵权了。司法实践中判断著作权侵权与否,主要考虑“有接触的可能性”和“实质性相似”,都“蒸馏”成写作Skill了,“接触的可能性”很难抗辩,无非是看写作Skill的风格化模仿能否摆脱对原稿表达的实质性相似。
汉弗莱爵士的案例可以作为补充视角了解蒸馏虚构角色的要点。汉弗莱·阿普比是编剧安东尼·杰伊和乔纳森·林恩为BBC创造的虚构人物,不是真人,不存在人格权主体。但著作权绕不过去,汉弗莱爵士的标志性表达方式是编剧精心设计的文学表达,剧本文本、角色对白都是“有主之物”。演员对虚拟角色的演绎也受《著作权法》表演者权条款的保护。虚构角色蒸馏的风险取决于“蒸馏”的深度:单纯模仿角色的语气、逻辑和人设风格,不一定构成侵权,如果Skill输出的内容在用词、句式、修辞组合上与原剧本台词构成实质性相似,那就构成侵权。换言之,边界还是在于输出是否再现了原作的具体表达。
AI服务提供者的注意义务
全国首例AI“幻觉”侵权纠纷案值得单独考虑。一个用户向AI询问高校报考信息,AI给了不准确的答案,用户指出错误后,AI不仅坚持错误,还承诺如果内容有误愿赔偿10万元,建议用户到法院起诉。用户将AI所在科技公司告上法庭,认为AI生成的不准确信息对自己构成了误导,要求被告赔偿损失9999元。
杭州互联网法院驳回了原告诉求,并未认定构成侵权,但判决中确立了几个重要规则。其一,AI不具有民事主体资格,不能独立、自主作出意思表示。其二,AI侵权适用过错责任原则,服务提供者需要尽到以下注意义务:对违法信息严格审查、对功能局限显著提示,以及采用行业通行技术提高生成内容准确性。这套“注意义务”框架也给人格蒸馏Skill提示了风险,如果Skill以真人名义输出了错误信息,制作者没有尽到“显著提示”和“内容核实”的义务,就有了过错责任。
处理已公开个人信息有界限
有人认为,“蒸馏”的素材都是公开发表的演讲、访谈、社交媒体帖子,这算什么个人信息?《个人信息保护法》第4条规定,个人信息是以电子或者其他方式记录的与已识别或者可识别的自然人有关的各种信息。按照这个定义,公开发表的言论只要能关联到特定自然人,就在保护范围内。
一篇公开发表的文章,首先受著作权保护。但人格蒸馏做的事情是把一个人的大量公开言论攒到一起,拼出一个可交互的“人格”,个人信息保护的问题就很难回避了。
《个人信息保护法》为处理个人信息建立了一套知情同意的规则,但也规定了一些例外情形。第13条第1款第6项规定,不用取得个人同意,可以“在合理的范围内处理个人自行公开或者其他已经合法公开的个人信息”,这是人格蒸馏开发者可能援引的免责依据。但第27条给这个口子加了限制,处理已公开信息须在“合理范围”内,个人明确拒绝的除外,而且处理已公开的个人信息,对个人权益有重大影响的仍需取得同意。
把一个人的公开言论等个人信息蒸馏为一个可以交互的AI人格,这显然超出了言论发表时的合理预期,大概率会被认定为“对个人权益有重大影响”。最高法院2025年入库的参考案例(麦某波诉北京法某科技有限公司、北京律某信息技术有限公司网络侵权责任纠纷案)已经明确,处理已公开个人信息超出合理范围的,构成侵权。
开源和非商用能否抗辩?
做人格蒸馏Skill的人里,有一个说法流传很广:开源就行了,不收钱就不算商业用途,不算商业用途就是合理使用。
这个推理链条在法律上并不严密。首先,开源改变的是软件的分发方式,不改变制作过程中发生的侵权事实。把某家媒体的特稿全文下载下来喂给模型做训练,复制行为在数据采集那一步就已经完成了。无论之后把训练出来的Skill闭源卖钱,还是挂到GitHub上免费下载,那一步的复制都已经客观存在。
不过上面说的是“全文下载语料→训练模型”这一技术路径。因为部分Skill是通过在对话中向大模型描述风格特征制作的,不涉及全文下载和永久存储,这种情况下《著作权法》意义上的“复制”是否成立争议较大。但只要制作过程涉及了对原文的规模化采集和永久存储,复制行为就已经客观存在。
开源不但不能减轻风险,反而可能加重。闭源使用只触发复制权问题,而公开发布,还额外触发了信息网络传播权。在前述上海首例人工智能大模型著作权侵权案中,法院正是以“复制权+信息网络传播权”的双重侵害进行认定的。用户上传版权素材训练模型后分享给他人,分享这个动作就是侵权的加重情节。把“分享”换成“开源发布”,法律逻辑是一样的。而且一旦开源,任何人都可以下载使用,市场替代效应被放大。
其次,非商业用途与合理使用不能划等号。《著作权法》第24条列举了合理使用的情形,包括个人学习研究、介绍评论、新闻报道、教学科研等十三种情形。其中与“非商业”最接近的是第一项“为个人学习、研究或者欣赏,使用他人已经发表的作品”,而介绍评论、教学科研等其他情形也不适用于人格蒸馏Skill的场景。仅看第一项,关键限定是“个人”使用。此外,第24条对所有合理使用情形设有通用约束:不得影响作品的正常使用,不得不合理地损害著作权人的合法利益(即三步检验法)。面向公众发布一个Skill,即便是免费,也显然超出了“个人”的范畴。另外,有的开源协议本身允许商业使用,任何人都可以拿去商用,这本身就是风险。
有些侵权行为与是否商业使用完全无关。现在的《民法典》对肖像权保护已经删去了“以营利为目的”的要件,即便是免费的人格化Skill也有侵权风险。所以,靠谱的合规路径还是获得权利人的明确授权。
回到朋友的问题。如果要做一个模拟真人的人格蒸馏Skill,面对的不是一道法律关卡。人格权这一道,要取得被蒸馏者(或其近亲属)对姓名、肖像、声音及整体人格形象使用的授权。著作权这一道,要取得训练语料版权方的许可——蒸馏名人和蒸馏媒体风格,授权对象不同。《个人信息保护法》这一道,要证明对已公开个人信息的处理没有超出合理范围,而把公开言论加工成可交互的AI人格,目前的司法态度倾向于认定越界了。这些关卡,任何一道没过,都独立构成侵权。
可以预测的是,不久之后的AI人格蒸馏Skill第一案会反复确认上述法律准则,就像此前的各种AIGC第一案一般。一旦第一案落地,规则也会逐渐清晰。