AI法律评论丨Meta强制收集员工鼠标键盘输入训练AI

文丨天元律师事务所 李昀锴
审定丨主管合伙人 孙彦
1、GPT-image-2发布,互联网进入有图无真相时代
4月22日,OpenAI正式发布了万众瞩目的图像生成和编辑模型ChatGPT Images 2.0,该模型已经在聊天机器人ChatGPT和API服务中全量上线。奥特曼在发布会直播中评价:“ChatGPT Images 2.0的发布是一次巨大的飞跃,相当于一次性从GPT3直接跳跃到了GPT5。”
模型上线后飞速登上Image Arena所有榜单第一,在竞争激烈的文生图排行上,领先Nano banana 2高达242分。大量网友纷纷展示自己用ChatGPT Images 2.0生成的图像,一时间各种神图满天飞,ChatGPT Images 2.0的强大能力让这些图片真假难辨,有人发现它甚至可以生成能够扫描的条形码。
在网友展示的生成结果中,有直播截图、发布会照片,甚至还有转账记录等非常真实,且与日常生活紧密联系的图片,这些ChatGPT Images 2.0生成的图片足以在很多场景下以假乱真,不明缘由的人极易被骗。(来源:智东西)


2、西山居游戏辟谣“解散”谣言
4月23日消息,近期,网络上出现一张所谓“财联社电报”截图,其中写有“金山软件披露:旗下西山居互动娱乐将于6月31日解散旗下游戏及开发工作室将出售给网易雷火”等内容,引起网络热议。对此,西山居游戏官方微博发布声明,称相应截图为AI技术恶意伪造,将依法追究恶意造谣、恶意传谣主体的法律责任。(来源:IT之家)
评论:这几天我们在网络社群中已经看到了众多真假难辨的照片,包括转账记录、社交网络截图、门诊病历、医师执业资格证等,很多照片即使AI从业者施加高度注意力也无法有效区分。虽然目前还只是AI社群对GPT-image-2的能力测试,但当这种能力可以由任何一个普通用户驱使并仅凭简单的提示词就可以完成时,我们的社会将面临一场前所未有的信任危机,互联网将立刻进入“有图无真相”的时代。
而这场危机投射到法律领域,首当其冲的便是民事诉讼中电子证据的真实性。当下电子数据早已成为现代民事诉讼中最常见的证据形式,在民间借贷、买卖合同、劳动争议甚至婚姻家事纠纷中,原被告双方提交的最主要证据,往往就是几张微信聊天截图、几份支付宝或银行的转账记录截图。在过去,这些截图因为具备一定的伪造门槛及痕迹,通常能作为法官查明案件事实的重要依据。但GPT-image-2的出现,直接对证据真实性发起了降维打击。
试想一下,在未来的法庭上,原告提交了一份由GPT-image-2生成的“转账记录截图”和“催款聊天截图”来主张不存在的债权。这些图片不包括国内法规要求的AI水印,不仅视觉上毫无破绽,甚至连界面UI、时间水印、字体形式都与真实截图别无二致。此时,被告本身无法对不存在的事实进行举证,若要抗辩要么寄希望于法官水平高超可以核查原件确认真实性,要么必须需要申请司法鉴定。但随着AI技术的进化,传统的图像痕迹鉴定技术能否跟上AI的造假水平?即使能鉴定,高昂的鉴定费用和漫长的鉴定周期,也必然会让普通的民事诉讼变得障碍重重。
而且由于单张图片的真实性不再可信,未来的民事审判中,法官将越来越不敢轻易采信单一的截图证据。这就意味着,为了形成完整的证据链,当事人不得不去寻找更多的补强证据。例如,证明转账发生,不能再仅靠转账截图,必须由当事人向法院申请调查令,直接去银行或第三方支付平台调取底层交易流水;证明聊天记录存在,必须要求各方现场提供并登录手机进行原始载体勘验,甚至要求双方手机记录一致,如果发生手机遗失、损坏则相关证据彻底无法被法院采纳。这无疑大大增加了普通人维权的门槛和整个社会的交易成本。
可以预见的是,未来民事诉讼中涉及图像、视频证据的案件,将不得不大幅倚重专业技术鉴定,对原被告都是额外的成本负担,而鉴定机构能否跟上AI伪造技术的迭代速度,本身就是一道悬而未决的难题。在此之前,作为律师在证据准备与质证策略上,应尽早将“AI生成可能性”纳入审查框架,对关键图像证据的来源、存储介质、原始性留存提出更严格的要求,否则可能将处处碰壁、举步维艰。
3、Meta强制收集鼠标键盘输入训练AI
4月22日,路透社、Business Insider等外媒曝光的一份内部备忘录显示,Meta正着手在其美国员工的电脑上安装一款新的追踪软件,旨在捕捉鼠标移动、点击操作及按键输入数据,用于训练其人工智能模型。此举是该公司一项宏大计划的组成部分,旨在构建能够自主执行工作任务的AI智能体(Agent)。
这款名为「模型能力计划」(Model Capability Initiative,MCI)的工具将在员工使用的各类工作相关应用程序和网站上运行,会不定期地对员工的屏幕内容进行截屏快照。
这份备忘录由一名AI研究科学家于周二发布在公司内部专用于模型构建的「Meta超级智能实验室」(Meta SuperIntelligence Labs,MSL)团队频道中。其中指出,该计划的目的是为了提升Meta AI模型在特定领域的表现——即那些AI模型尚难以精准复现人类与计算机交互方式的领域,例如从下拉菜单中进行选择或使用键盘快捷键等操作。
备忘录写道:「正是在这一点上,每位Meta员工都能通过单纯地完成日常工作,来协助我们的AI模型实现能力的提升。」(来源:机器之心)
评论:从中国劳动法及个人信息保护法律框架审视,Meta此项举措的合法性存疑,合理性亦经不起推敲。
从合法性层面,我国《劳动法》及《个人信息保护法》实际上并未禁止企业在工作场合对员工的监控,但应通过《员工手册》或《员工隐私政策》明确告知监控目的、范围和方式,并获取员工同意,涉及敏感信息的监控还需单独同意。从监控内容上应具备合理性,内容与工作相关,目的为保护企业合法权益,如防止泄密和提高效率。但Meta公司的前述备忘录处理目的为“训练AI模型”,这并非用人单位管理所必需,亦非保障劳动过程安全所必要,本质上属于商业性数据利用。以此目的收集员工的行为特征数据,其正当性依据明显不足,难以援引《个人信息保护法》第十三条所列的豁免情形。
合理性层面,问题更为突出。Meta的备忘录将员工工作描述为“协助AI模型实现能力提升”,明确劳动者在获取劳动报酬的同时,其工作过程中的行为数据被单方面归入用人单位的数据资产,而劳动者对此既无议价权、亦无收益分享。这一安排在逻辑上与劳动者权益保护的基本理念相悖。劳动关系的本质是有酬交换,劳动者让渡的是其劳动行为及劳动成果,而非其工作中的生物特征与行为模式,这些特征、模式更接近于劳动者人格权益的延伸,理应受到更高程度的保护。一旦允许用人单位以提升AI能力为由收集员工行为数据,则理论上任何工作场景下的数据采集均可假此名义,明天可能搜集的就是语音输入、工位监控乃至情绪识别。合理性边界的缺失,最终将使劳动者在工作场所的所有隐私归零。
Meta此举其本质是将劳动者转化为AI训练数据的无偿供应者,这一逻辑若不加抵抗地延伸到全球职场,将对劳动者权益保护的基本架构产生深远侵蚀。希望监管部门尽快介入审查,避免部分巨头企业以提升效率为由将AI技术与劳动者再度对立起来。
4、爱奇艺紧急回应AI艺人库争议
4月21日凌晨,爱奇艺针对纳逗Pro艺人库引发的舆论风波再次作出官方回应,明确表示不存在未经艺人同意将相关艺人纳入AI艺人库的情况,并重申自身对AI技术应用于影视行业的相关立场。
爱奇艺在官方微博中表示,纳逗Pro艺人库是为AIGC创作者与艺人方提供高效对接沟通的规范化合作平台。艺人入驻仅代表其有接洽AI影视项目的合作意向,是否参演及以何种形式参演,均需根据具体项目另行单独洽谈,与现行的传统真人影视项目合作流程一致。

此前一天,该公司在2026爱奇艺世界·大会上宣布,已有100多名深度合作艺人同意入驻爱奇艺专业级影视制作平台纳逗Pro艺人库。据爱奇艺介绍,建立纳逗Pro艺人库的初衷,旨在为AIGC创作者提供一个规范的平台,便于其在创作中遴选艺人,并通过爱奇艺与艺人方高效沟通合作细节。爱奇艺创始人、CEO龚宇则提及,传统影视拍摄中,演员常需连续工作几个月,日均工作时长高达十多小时,几乎没有个人生活空间。而AI技术的应用,能让演员的年产量从4部提升至14部,同时获得更多休息。
消息一出,随即引发广泛讨论,有网友认为,此举直接把艺人“饭碗共享”玩成“饭碗消失”,“爱奇艺疯了”词条也登上微博热搜。不少网友对AI技术替代真人表演、冲击行业生态表示忧虑。
紧接着,于和伟、张若昀、王楚然等多位艺人通过工作室或官方渠道发布澄清,称未签署任何AI相关授权文件,部分团队表示将依法维护自身权益。同在21日凌晨,新浪娱乐发布更正说明,确认上述艺人并未入驻爱奇艺AI艺人库。爱奇艺随即转发了该微博,并作出了前述声明。(来源:界面新闻)
评论:同意入驻并不等于同意AI化使用。《民法典》第一千零一十九条明确规定,任何组织或个人不得利用信息技术手段伪造等方式侵害肖像权,对肖像权的保护范围已涵盖可识别性形象,不限于面部特征。艺人同意入驻一个沟通对接平台,其真实意思表示仅限于表达合作意向,而非对AI生成、数字分身等具体使用方式的概括性许可。但爱奇艺在宣传过程中将入驻与参演混为一谈,以年产量从4部提升至14部作为卖点,极易导致公众乃至合作方对授权范围产生误解,也无怪乎后来招致众多艺人的澄清与反对。AI对影视产业的改变不会因一场舆论风波而停止,但改变的路径是可以被塑造的,AI技术应该给整个产业带来多元协作,而不是再次演变为平台支配。
5、日本发布《关于AI应用中民事责任解释适用的指南》
2026年4月,日本经济产业省(METI)正式发布《关于AI应用中民事责任解释适用的指南》,旨在破解生成式AI普及背景下民事责任认定难题。该指南由法学与技术专家组成的AI民事责任研究会起草,将成为日本司法裁判AI相关民事纠纷的重要参考。
随着AI技术在商业领域的广泛应用,其黑箱性、自律性特征导致民事责任认定面临诸多挑战,相关裁判案例积累不足,不仅给企业AI部署带来合规顾虑,也不利于损害事件的高效解决。此次指南明确将AI应用分为辅助/支援型与依赖/代替型两大类,分别界定开发者、提供者、使用者的责任义务。
其中,辅助/支援型AI以人主导决策为核心,AI仅作为判断辅助工具,最终决策由人类作出,典型场景包括律师业务支援、交易审查等。此类场景下,使用者需承担与传统场景同等的注意义务,对AI输出结果进行最终审核;开发者和提供者的核心责任则是明确告知AI的性能边界与潜在风险,避免使用者过度依赖AI。
依赖/代替型AI则以系统主导决策为核心,AI直接替代人类完成判断或行动,典型场景涵盖配送路线优化、外观检查、自主移动机器人运营等。对于此类AI,使用者的责任从个别判断转向系统运营体系的合规性,需建立完善的AI监控机制;开发者和提供者则需承担设计阶段的安全性保障义务,通过充分的测试验证,全面披露AI存在的风险。
为提升指南的实践可操作性,此次发布的内容还专门梳理了6类AI应用典型场景,明确不同场景下的责任核心。例如,配送路线优化AI因算法缺陷导致配送延误时,开发者需承担设计责任,使用者需承担运营监控责任;外观检查AI出现瑕疵漏检时,开发者需保障检测精度,使用者需建立抽检机制;自主移动机器人发生碰撞事故时,开发者负责安全设计,使用者负责环境适配。
此外,指南还针对AI Agent等新兴应用场景补充了责任判断原则,明确若AI输出错误信息,需区分是否超出约定使用范围,进而界定开发者的告知义务与使用者的审核义务。(来源:科技法珠玑)
评论:本次指南并非立法性文件,而是通过司法参考名义下发,这在功能上接近于最高人民法院发布的司法解释性质文件。指南给出的辅助/支援型与依赖/代替型框架非常有实操意义,在前者中,最终决策由人类作出,故使用者的注意义务不变,法院在审查此类案件时,只需将AI视为一种工具,判断使用者是否尽到对输出的审核义务即可;而在后者中,AI替代了人类判断,使用者承担的是系统运营体系合规性义务而非个案决策义务,这一区分直接决定了过失认定的标准与举证重点,这一举证逻辑与产品责任的思路一脉相承。日本的相关指南可以供司法专业人士在相关案件中予以借鉴,同时或可作为参照,为中国未来相关司法解释的制定提供了有效的实操框架。

*特别声明:
本文仅为交流目的,不代表天元律师事务所的法律意见或对法律的解读,如您需要具体的法律意见,请向相关专业人士寻求法律帮助。

夜雨聆风