
引子:一个8000+星标的项目
2026年4月初,GitHub上一个名为「同事.skill」的项目突然爆火,不到一周斩获8000+星标。
这个项目的核心功能简单直接:把你离职同事的聊天记录、工作文档喂给AI,生成一个1:1复刻的「数字分身」。这个分身不仅继承了前同事的技术规范,甚至连「甩锅」的话术都能模仿得惟妙惟肖。
项目的Slogan充满自嘲:「人走了,但经验留下了。」
评论区炸了锅。有人跃跃欲试:「终于可以把那个跑路的大神蒸馏出来了。」也有人感到不安:「如果我的聊天记录能被随便炼成AI,我还有隐私吗?」
更魔幻的是,「反蒸馏.skill」紧随其后上线——专门帮员工把核心经验替换成「正确的废话」。
但这只是开始。
几乎同时,一个「张雪峰.skill」开始在技术圈流传,引发了更大的争议。
考研名师张雪峰在2026年3月24日因心源性猝死离世,年仅41岁。讣告的热度还没散去,有人就用他历年的视频、直播切片训练出了一个AI分身。考生输入分数和城市,就能得到「张雪峰风格」的志愿填报建议。
支持者说:「这是最好的纪念,让他的经验继续帮助更多人。」
反对者说:「人刚走两周,就被拿来炼AI,尊重呢?」
从「同事.skill」到「张雪峰.skill」,从活人到逝者,人格蒸馏的伦理边界正在被不断挑战。
什么是「人格蒸馏」?
先厘清这个概念。
你可能用过DeepSeek、豆包、Kimi。它们懂得多,但不懂「你」。你跟它们聊天,得到的回答跟别人的差不多。
人格蒸馏做的是另一件事:它从一个人的语言、风格、思维模式中提炼「精髓」,打包成一个专属的AI Skill。
简单说,DeepSeek是公共课,人格蒸馏是一对一私教。
技术上,它把一个人的各种数据「喂」给AI——聊天记录、视频、文档、语音。数据越多,学得越像。
以前这是科幻。现在,它正在成为现实。
两个案例,两种争议

案例一:同事.skill(活人的困境)
这个项目完美戳中了企业的痛点。
以前怎么传承老员工的经验?靠文档、靠交接、靠口头传授。问题是,很多人不爱写文档,交接时时间又紧,很多细节根本传不下去。
同事.skill给了一条捷径:直接从聊天记录和工作记录里「炼」出知识。成本低、效率高、覆盖全。
想象一下:技术大牛老张离职了,新人遇到问题直接问「老张.skill」,AI会用老张的说话风格给出建议,甚至来一句他的口头禅。
听起来很美好?
但老张本人同意了吗?
案例二:张雪峰.skill(逝者的困境)
这个案例更复杂,也更敏感。
张雪峰已经离世。从法律角度,他的视频、直播内容是公开的,用来训练AI似乎没有问题。
但伦理上呢?
当一个人已经离世,他是否还有权决定自己的「数字形象」如何被使用?
家人同意了吗?公司同意了吗?如果AI张雪峰说错了志愿填报建议,谁来负责?
更重要的是:我们是否有权决定,让一个人以数字形式「继续活着」?
活人的困境 vs 逝者的困境
如果你是那个被蒸馏的「活人」
想象你在一家公司干了三年,积累了大量经验。然后你跳槽了。
几个月后,你听说老东家把你的聊天记录炼成了一个AI,新人正在向「数字版你」请教问题。那个AI用着你的说话方式,输出着你的经验。
问题是:你同意了吗?
从法律角度,这里有三个模糊地带:
聊天记录算谁的:存公司服务器上的记录,属于公司还是你个人? AI模仿你犯法吗:AI学你的说话风格和思考方式,算不算侵权? 该不该分钱:如果「老张.skill」帮公司赚了钱,老张本人该不该有份?
这些问题现在都没有明确答案。
如果你是那个已经离世的「逝者」

这个困境更深一层。
当一个人已经去世,他无法再表达自己的意愿。但他的数字痕迹还在——视频、语音、文字。这些可以被用来「复活」他,让他继续「说话」。
这带来几个问题:
1. 数字遗产权
一个人的数字形象,算不算遗产?应该由谁继承、如何处置?
2. 被误用的风险
如果AI张雪峰给出了错误的志愿填报建议,误导了考生,责任在谁?已故的他,还是制作Skill的人?
3. 记忆的篡改
当AI可以模仿一个人说话,我们怎么区分「他真正的观点」和「AI生成的内容」?逝者的「数字遗产」会不会被滥用?
4. 对家属的二次伤害
对张雪峰的家人来说,看到亲人被做成AI,是安慰还是打扰?
攻防战:蒸馏与反蒸馏

面对人格蒸馏,出现了两种态度。
进攻方:万物皆可Skill
技术社区里,「XX.skill」正在成为一种风潮:
同事.skill → 留住离职员工的经验 张雪峰.skill → 让名师继续「授课」 前任.skill → 分析分手原因(是的,真的有)
背后的逻辑是:人的经验是宝贵的,不应该随着离职、去世而消失。AI可以延续这种价值。
防守方:反蒸馏.skill
但另一群人不同意。
同事.skill火了之后,「反蒸馏.skill」马上出现。它的作用很简单:帮你在聊天和文档里「掺水」——把核心技术换成正确的废话。
比如,原本你会写:「这个方案高并发下会死锁,建议用队列。」
反蒸馏后变成:「这个方案需要结合业务场景综合评估,建议考虑性能、成本、可维护性等多维度因素。」
听起来很有道理,其实什么都没说。
开发者在项目说明里写得直白:「你的经验是你的核心竞争力。免费送给公司炼成AI?想多了。」
更深层的焦虑:什么才是真正的「你」
让我们再往前想一步。
假设人格蒸馏技术越来越成熟,数字分身越来越逼真——它不仅能回答问题,还能替你做决策、替你开会、甚至替你社交。
这时候,「你」的价值在哪?
一直以来,我们觉得自己不可替代,是因为有独特的知识、经验和判断。但如果这些都能被复制、被优化,那人的价值还剩什么?
也许答案是:意愿、责任和创造。
AI可以学你的经验,但它不会为你的决策负责。它可以模仿你的风格,但它不会真正「想要」什么。它可以组合已有知识,但它不会半夜突然灵光一闪,想出一个没人试过的新点子。
人格蒸馏能复制「能力」,但复制不了「意愿」。
换句话说,AI可以像老张一样回答问题,但它不会真的关心那个项目会不会成功。
而当一个人已经离世,这个区分更加重要——AI张雪峰可以给出建议,但它不是张雪峰。它不会真正关心那个考生的未来。
结语:我们需要新的契约
同事.skill、张雪峰.skill、反蒸馏.skill的攻防战,其实是关于「数字时代人格权」的一次预演。
从活人到逝者,从职场到公共领域,人格蒸馏正在挑战我们现有的伦理框架。
在传统社会,一个人的权利止于死亡。但在数字时代,你的数据、你的风格、你的「数字影子」可以继续存在,被复制、被使用、甚至被商业化。
我们需要重新定规则:
员工能不能拒绝被「蒸馏」? 逝者是否有「数字遗产权」?家属是否有权决定逝者的数字形象如何使用? 当AI输出带个人风格的内容时,原作者该不该署名? 如果AI分身说错了话,责任在谁?
这些问题没有标准答案。
但反蒸馏.skill的出现提醒我们:技术不是单向的。有提取,就有对抗;有监控,就有反监控;有蒸馏,就有反蒸馏。
这是一场博弈,不是单方面的收割。
至于张雪峰.skill——它或许是一种纪念,或许是一种冒犯,取决于我们如何看待「数字永生」。
但有一点是确定的:当技术可以让逝者「复活」,真正重要的也许不是AI能模仿得多像,而是我们如何选择使用这项技术——带着尊重,还是带着贪婪。
如果这篇文章让你有所思考,欢迎点赞、在看、转发。
关注「熵减手册」,让AI替你干活,把时间留给真正重要的事。
夜雨聆风