当老板要你亲手训练AI替掉自己,中国科技打工人打响“反蒸馏”大战
劳动节假期对中国科技行业的打工人来说,过得并不轻松。
就在一周前,一个名叫“同事.Skill”(Colleague Skill)的GitHub项目在中国互联网上炸开了锅。它号称可以把你同事的工作习惯、性格特点,甚至连打字时爱用的标点符号都“蒸馏”出来,生成一个可复用的“技能包”,然后交给AI代理去执行。
虽然这个项目是上海人工智能实验室工程师田宇洲搞的一个恶作剧,用来讽刺当下的AI焦虑,但它真真切切地刺痛了无数科技打工人的神经——因为大家的老板,是真的在鼓励他们做这件事:把自己“AI化”,然后等着被优化。
一、老板的阳谋:把“人”变成“蓝本”
自OpenClaw在中国掀起AI代理热潮以来,许多科技公司的老板就开始要求技术员工记录下自己工作的每一个细节、每一个决策流程。这些“工作手册”会被用来训练AI代理,试图让机器学会执行这些任务。
埃默里大学研究AI与工作的曹汉成教授分析认为,企业这么做有着充分的商业逻辑。他们不只是跟风,而是通过这种方式,把员工脑子里的“隐性知识”变成公司的“显性数据”。“公司不仅获得了使用工具的内部经验,还积累了关于员工技能、工作流程和决策模式的更丰富数据,”曹汉成说,“这有助于公司看清哪些工作可以被标准化或系统化,哪些仍然依赖人的判断。”
说得直白一点:你的工作流程、决策模式,都变成了可以量化、可以被替代的资产。 公司拿着这份“说明书”,随时可以找一个AI来顶替你。
这并不是天方夜谭。就在上个月,山东一家游戏传媒公司尝试将离职员工训练成AI数字人继续工作,话题冲上热搜。该公司在职员工发布的视频显示,一名数字员工正在对话框中自我介绍:“您好,我是已经离职员工XX的数字分身”。据悉,这位员工离职前是人事专员,现在的数字分身能做咨询、邀约、制作PPT和表格等简易工作。
二、打工人的困局:被“扁平化”的尊严
一位不愿透露姓名的软件工程师告诉《MIT科技评论》,当他花时间训练AI模仿自己的工作时,感觉自己的价值被“扁平化”了——好像自己的工作被拆解成了一个个模块,自己变成了一个随时可以被替换的零件。
27岁的上海科技从业者李安珀用自己的前同事做了个小实验,几分钟就生成了一个精确到癖好的工作手册。工具甚至捕捉到了“那个人如何反应以及他们的标点使用习惯”。李安珀觉得这很诡异,很不舒服。“我并不觉得我的工作会立刻不保,但我觉得我的价值被‘贱卖’了,而且我不知道该怎么办。”
在小红书上,有人用黑色幽默来消解焦虑:“冰冷的告别,也可以变成温暖的Token。” 言下之意——如果你不先动手“蒸馏”同事,下一个被“蒸馏”的可能就是你自己。
这种焦虑正在蔓延。 当AI技术能够模仿、复制甚至“创造”一个人的声音、形象乃至人格片段时,传统的“人”与“工具”的边界在被重新定义。北京互联网法院副院长孙铭溪指出:“当虚拟人足以混淆真人身份,其行为边界便极易突破法律甚至伦理底线。”
三、反手一击:“反蒸馏”技能爆火出圈
面对这种“被AI替代”的压迫感,有人选择了更聪明的反抗方式。
26岁的北京AI产品经理Koki Xu,只花了一个小时就在GitHub上发布了一个“反蒸馏”技能(Anti-Distillation Skill)。这个工具能干嘛?它可以破坏你为AI代理创建工作流程的过程。
更绝的是,用户可以根据老板“监视”的严密程度,选择轻度、中度或重度破坏模式。被它处理过的工作手册,会变成一堆通用、没有可操作性的废话。这样造出来的AI,能力大打折扣——等于让老板的如意算盘彻底落空。
Koki Xu发布的相关视频在全网获得了超过500万个点赞。她对《MIT科技评论》表示:“我本来想写篇评论文章,但后来觉得,做一个能‘反击’的东西更有用。”
这个“反蒸馏”工具的火爆,某种程度上说明了打工人的情绪已经积累到了什么程度。这不是一个技术问题,而是一个尊严问题。
四、法律灰色地带:你的“数字分身”到底算谁的?
除了“道德”和“尊严”,还有更棘手的“法律”问题。
Koki Xu拥有法学学士和硕士学位,她指出,公司可能主张工作聊天记录和办公电脑上的资料是公司财产,但“同事技能”这种工具捕捉的还有人的个性、语气和判断力——这些算谁的?
河南泽槿律师事务所主任付建提醒:离职员工的聊天记录、工作邮件、个人工作习惯等,属于《中华人民共和国个人信息保护法》界定的个人信息,其中涉及的私密沟通内容还可能构成敏感个人信息。未经员工同意收集、使用该类数据训练AI,直接侵犯其个人信息的收集、使用、加工权。
更严重的是,根据《中华人民共和国刑法》第二百五十三条之一:违反国家有关规定,向他人出售或者提供公民个人信息,情节严重的,处三年以下有期徒刑或者拘役,并处或者单处罚金;情节特别严重的,处三年以上七年以下有期徒刑,并处罚金。
这也就是说,老板让你“把自己AI化”这件事,在法律上可能压根就是违法的。
五、更深远的拷问:AI时代的“人”往何处去?
“同事.Skill”的火爆,本质上是中国科技行业面对AI浪潮时的一次集体焦虑表达。它提出了一个无法回避的问题:
当你的工作可以被拆解、编码、复制,甚至你的个人风格也能被“数字化”时,你作为“人”的独特价值,到底在哪里?
山东大学信通电子人工智能研究院常务副院长韩忠义表示:“真正值得鼓励的方向,不是把人变成一个可以随时复制的工具,而是让AI去接住那些重复劳动,把人放到更有判断价值、更需要责任心的工作上。”
山东省计算中心主任吴晓明也指出:“这种变化不应被简单理解为‘AI替人’,而更应理解为‘人机协同重构岗位’。AI数字分身并不只是替代某个人,更是在推动岗位由‘本人亲自完成’,转向‘本人设计规则、训练系统、监督结果、兜底风险’。”
他甚至预测,这可能催生“数字员工训练师”“行业知识标注师”“人机协同流程设计师”“AI风控审校师”等新角色。
六、监管出手:不能让技术成为“脱缰野马”
随着AI拟人化应用的爆发式增长,监管已经开始出手。
2025年12月,国家互联网信息办公室就《人工智能拟人化互动服务管理暂行办法(征求意见稿)》公开征求意见。该办法明确提出,提供者应当显著提示用户正在与人工智能而非自然人进行交互;在用户连续使用服务超过一定时长时,应以弹窗等形式提醒用户休息。
2026年4月,国家网信办又制定了《数字虚拟人信息服务管理办法(征求意见稿)》,明确数字虚拟人不得“撞脸”“碰瓷”名人,不得任意“复活”逝者,使用敏感个人信息用于建模时必须取得自然人的单独同意。
监管的信号很明确:技术可以发展,但不能以牺牲人的尊严和权益为代价。
七、最后的告白:你愿意被“炼化”吗?
回到“同事.Skill”这个项目本身。它的创造者田宇洲在接受《南方都市报》采访时坦言,这个项目是一个“噱头”,源自AI相关的裁员浪潮以及公司越来越倾向于要求员工“自动化自己”的趋势。
当老板拿着你的“技能包”说“你可以走了”的时候,你该怎么办?
Koki Xu说了一句很关键的话:“我觉得跟上这些潮流很重要,这样我们(作为员工)才能参与到决定它们如何被使用的过程中去。”
在AI时代,也许最危险的,不是被AI替代,而是连自己的“说明书”都由别人来写。
你能接受离职后被公司“炼化”成AI数字人继续工作吗?你觉得自己的“数字分身”应该归谁所有?欢迎在评论区留言讨论。