Meta开始拿员工鼠标和键盘数据喂AI,这事比“内网监控”还吓人
导语
公司以前盯你的鼠标和键盘,是为了看你有没有在摸鱼。现在它可能是想拿这些痕迹,把你会干的活学走。
4月21日,路透社拿到Meta内部备忘录,爆出了一条让很多人背后一凉的消息:Meta正在美国员工的电脑上安装追踪软件,采集鼠标移动、点击和键击数据,拿来训练AI模型。
工具名叫“模型能力倡议”(Model Capability Initiative),会在工作相关的应用和网站上运行,还偶尔截取员工屏幕内容作为上下文参考。Memo里是这么写的——“这是所有Meta员工都可以通过日常工作帮模型变得更好的方式”。
翻译成人话就是:你干活,它学习。你以为你在写文档、选下拉菜单、用快捷键,其实你的每一个操作痕迹,都在变成AI的训练原料。
这事真正让人不舒服的地方,不是监控,而是你的工作动作本身,开始变成AI的学习素材。过去大家担心公司会不会监控员工,现在问题开始变成:它会不会一边监控,一边顺手把你的工作方式复制下来。
一、不是监控升级,是目的变了

很多人第一反应可能是:公司监控员工电脑不是早就有了吗?内网监控、屏幕录屏、邮件审计,这些东西存在十几年了。
但这次真不一样。
传统内网监控的目的很明确——看你有没有在干活,防止数据泄露,或者收集“证据”用于绩效考核。Meta发言人也特意强调,这次采集的数据不会用于绩效评估,只用于模型训练,而且有安全措施保护“敏感内容”。
问题就在于:这个“只用于模型训练”反而更让人不安。
监控你是为了管你,这个逻辑虽然让人不爽,但好歹是雇主权力的一部分。“复制你”是另一回事——它意味着你的劳动痕迹不再是工作过程的副产品,而是变成了可以被机器学习、被模型吸收、被系统继承的资产。目的从“看你有没有工作”变成了“学你怎么工作”,性质就彻底变了。
换句话说,你留下的每一次点击、每一次拖拽、每一次键盘敲击,如果都能变成AI的训练原料,公司就不只是监工,它还在复制工作。
二、AI训练数据的边界,从互联网推进到了办公桌

要理解这事为什么是分水岭,得先看清楚AI训练数据的历史走向。
过去几年,AI模型训练主要吃什么?公开互联网上的文本、代码、图片、视频。争议也主要集中在这——版权问题、数据爬取合法性、创作者权益。
然后边界开始往里推。去年底到今年,出现了新趋势:OpenAI通过Handshake AI向第三方承包商要真实的过往工作文件——PPT、Excel、代码仓库,拿来做白领任务自动化的训练素材。TechCrunch也报道过,一些倒闭的创业公司被收购后,它们的Slack聊天记录、Jira工单都被拿去“炼AI”了。
Meta这次迈出了一大步。采集的不是已经生成好的文档或聊天记录,而是最原始的操作层数据——鼠标怎么移动、下拉菜单怎么选、快捷键怎么按、页面怎么滚动。Meta发言人说得也很直接:“如果我们要构建帮人们完成日常计算机任务的代理,我们的模型需要真实的例子,了解人们实际上是如何使用它们的——比如鼠标移动、点击按钮和导航下拉菜单”。
这才是真正的突破:AI不再只学“人类写过什么”,而开始学“人类在办公室里怎么一步步把事做完”。
Meta想训练的AI代理,核心能力是能像真人一样操作计算机——打开软件、填写表单、处理邮件、操作各种界面。要达到这个目标,光有文档、代码、聊天记录不够,缺的是最底层的交互动作。而能提供这种数据的,只有正在办公桌前干活的员工。
Meta CTO Andrew Bosworth在另一份内部备忘录里说得更直白:目标是“代理主要做工作,我们的角色是指导、审查和帮它们改进”,要实现“闭环”——代理能“自动看到我们在哪里觉得需要干预,以便下次做得更好”。
这就是训练边界从互联网推进到办公桌的标志性信号。过去数据来自“人类公开发表的内容”,现在数据来自“人类在工作状态下的行为痕迹”。这条线的跨越,比很多人意识到的要重要得多。
三、员工数据边界:同意用公司电脑,不等于同意被AI学

现在必须问一个问题:这些数据到底算什么?公司有权默认拿去训练AI吗?
Meta目前只在员工内部推行,参与是自愿的还是强制的,备忘录没明确说。但在劳动关系里,老板说“请大家配合”,员工真有说“不”的空间吗?
这里有一个很容易被忽略的法律盲区:同意公司监控设备,和同意自己的行为数据被拿去训练替代自己的AI,是两件完全不同的事。有法律专家指出,员工入职时同意了公司设备可被监控,但这与同意将自己的行为数据用于训练替代自己的AI,是性质完全不同的两种授权,前者不能推导出后者。
更深的问题在于数据的所有权。你每天在工作电脑上留下的操作轨迹——比如你习惯用什么快捷键、怎么排列窗口、先点哪里再点哪里——这些东西算不算你的“劳动痕迹”?算不算“个人数据”?公司付了你工资,但付工资买的是你的劳动成果,还是连你完成劳动的动作模式都一块买走了?
国内已经有法律人士在讨论类似问题。“技能蒸馏”技术的出现,让企业可以通过AI解析员工的工作文档、邮件和聊天记录,将个人工作经验提炼成机器可读的Skill文件。争议焦点包括:员工在工作设备上存储的私人聊天记录、个人邮件,即便物理上在公司服务器中,其内容仍属个人隐私范畴,公司若纳入AI训练涉嫌侵犯员工人身权。
放到Meta这事上,采集的是鼠标点击、键击节奏、操作路径——这些数据比文档更“底噪”,但正因如此,它更接近一个人的工作习惯和思维方式。它不是劳动成果,而是产生劳动成果的过程。
公司是否有权默认采集这个过程数据?员工有没有知情权、选择权、退出权?数据用于效率分析和用于训练替代自己的AI代理,中间差别到底有多大?目前这些问题都没有答案。
耶鲁大学法学教授Ifeoma Ajunwa对路透社表示,在美国联邦层面,“对员工监控没有限制”。这意味着从法律角度看,Meta这么做在美国目前没有明确的联邦法律障碍。但“不违法”和“没问题”之间,隔着一条劳动伦理的鸿沟。
四、企业内部AI训练,会不会变成新型劳动榨取?

这一段必须把话说清楚:这件事最深的隐患,不是隐私问题,是劳动价值会不会被顺手打包带走。
你在工作中留下的数据——鼠标轨迹、点击习惯、操作节奏——本来是劳动过程的副产品。过去这些数据就算被采集,最多拿来评估你有没有在“积极工作”。但现在,它们变成了AI代理的训练燃料。而这些AI代理的目标,Meta自己说得很清楚:自动完成工作任务。
逻辑链条是这样的:你一边干活,一边贡献训练数据 → 模型越学越像你 → 公司拿着你的工作方式训练出来的AI,可以替代你的一部分工作,甚至全部工作 → 然后呢?
Meta计划从5月20日开始全球裁员10%,这只是第一波,后续还有更多裁员计划。公司一边裁人,一边采集留下来的人的操作数据训练AI。这个时间线,很难不让人联想。
CTO Bosworth在内部备忘录里说得更直白:“我们正在构建的愿景是,代理主要做工作,我们的角色是指导、审查和帮它们改进”。
这句话换个角度看就是:你的角色从“做工作的人”变成“训练AI和审核AI的人”。再下一步呢?如果AI做得够好,连“审核”这个角色是不是也可以缩减?
这不是科幻想象。MIT Technology Review上周刚报道过,中国科技公司的老板们已经在要求员工训练AI代理来替代自己,已经有不少员工在把自己的工作流程编成“技能文件”,让AI代理接手。一位上海工程师表示,用工具克隆同事的操作模式后,“它甚至能捕捉到那个人的小怪癖,比如怎么反应、用什么标点符号”。有些企业已经在把离职员工的工作记录“蒸馏”成Skill文件,让AI接替他们的岗位。
这就是劳动“再提取”的新形态。过去,资本榨取的是你的劳动时间和劳动产出。现在,连你做事的动作模式、操作习惯、决策节奏,都变成了可以被提取、被资产化、被再利用的资源。公司付你一份工资,同时从你的工作痕迹里提取两份价值:一是你当下的产出,二是训练未来替代者的数据。
而员工对此几乎没有议价权。
五、为什么这比“内网监控”更让人不舒服?

监工让人反感,但它至少还是“监督”——老板想知道你在不在干活、效率高不高。
“复制你”触碰到的是更深的东西:可替代性。
以前是担心老板知道你在干嘛。现在是担心系统正在学你怎么干,并准备以后自己干。你越是熟练、越是高效、越是有自己的一套工作方法,你的操作数据反而越“值钱”——对训练AI来说越有价值。你的专业度,反而加速了你的可替代性。
这种心理冲击比普通监控强得多。监控带来的不安是“被盯着”,复制带来的不安是“被吸干”。而且它模糊了工作和训练之间的边界——你每做一件事,都在同时“教”一个系统。教得越好,系统越不需要你。
最让人不安的,不是公司知道你在点什么,而是它可能正在学你怎么把事做成。
六、国内公司会不会跟?谁最该紧张?

答案是:几乎一定会。
中国公司看美国大厂动向历来很快。Meta这件事表面上是AI训练数据的采集问题,实际上牵涉到企业效率管理和自动化替代两条线。这两条线一旦在“采集员工操作数据”这个点上交汇,就会变成一个非常诱人的打包方案。
国内已经有很多公司在推“AI代理”或“数字员工”。钉钉、飞书、企业微信都在布局AI能力。如果再加上一条——直接从员工操作中采集训练数据——技术上是完全可行的。MIT Technology Review报道的中国科技公司让员工训练AI替代品的案例,就证明了这种趋势已经在中国开始蔓延。
以下几类人最该提前关注这件事:
打工人:如果你的工作内容中有大量重复性操作——数据处理、表单填写、文档处理、客服回复——你的操作数据对训练AI最有价值。而一旦AI学会了,你的岗位首当其冲。
HR和法务:目前国内劳动法和数据保护体系里,“员工操作行为数据用于AI训练”几乎处于完全空白状态。一旦公司开始推这类项目,HR和法务要面对的是知情权怎么保障、数据采集范围怎么界定、员工如何退出、离职后数据如何处理等一系列没有先例可循的问题。在GDPR框架下,雇主处理员工个人数据必须遵循合法性、公平性和透明性原则,且由于雇主与雇员之间的权力不对等,“同意”作为合法依据在劳动关系中很难成立。这些原则在国内的适用程度,目前还是未知数。
数据合规团队:最敏感的其实是屏幕截图。Meta这次会“偶尔截取员工屏幕内容作为上下文”。屏幕截图上有什么?可能有客户信息、财务数据、内部沟通记录、未脱敏的业务数据。一旦这些内容进入训练数据管线,数据泄露风险是几何级上升的。即便Meta说“有安全措施保护敏感内容”,具体怎么保护、谁能保证不出事,都是合规团队需要追问的问题。
企业管理层:这事的另一面是,如果竞争对手用这种方式快速训练出高效的AI代理,而你们没有跟上,竞争力差距会迅速拉大。但贸然跟进,可能引发严重的员工信任危机和潜在的合规风险。这不再是“要不要用AI提效”的选择题,而是一个关于“边界”的艰难权衡。
七、最难回答的不是技术问题

Meta这件事的真正意义,不是一家公司的内部操作,而是AI训练边界正式进入办公室的信号。
AI真正进入办公室后,最难回答的问题,不是它能不能学会工作,而是谁有权拿你的工作痕迹继续学你。你的每一次点击、每一次拖拽、每一次键盘敲击——如果这些都能被采集、被存储、被用来训练一个可能替代你的系统,那么“在公司电脑上工作”这件事的性质就变了。
未来企业真正敏感的,不只是数据安全,而是“劳动数据”会不会变成默认可采集、可训练的资源。如果这条线不先讲清,企业内部AI训练很可能会变成下一轮最难看的劳动争议——不是关于加班费和裁员赔偿,而是关于“我的工作方式到底是谁的财产”。
参考来源:
Reuters, “Exclusive: Meta to start capturing employee mouse movements, keystrokes for AI training data,” April 21, 2026
Fortune, “Meta will start tracking employees‘ screens and keystrokes to train AI tools,” April 21, 2026
TechCrunch, “Meta will record employees’ keystrokes and use it to train its AI models,” April 21, 2026
MIT Technology Review, “Chinese tech workers are starting to train their AI doubles—and pushing back,” April 20, 2026
虎嗅, “离职员工被提炼成Skill文件,AI技能蒸馏的合法边界在哪里?,” April 7, 2026
Ius Laboris, “Workplace Data Privacy Update No. 6,” January 2026
WBW Solicitors, “Employee Monitoring and Data Protection: Employer Guide,” April 2, 2026
夜雨聆风