乐于分享
好东西不私藏

越认真写文档,AI越容易把你蒸馏干净?

越认真写文档,AI越容易把你蒸馏干净?

一个程序员离职了。三天后,他的数字分身出现在原来的工位上,用他的语气回消息,用他的代码规范改Bug,甚至连甩锅的节奏都一模一样。

这不是科幻片的预告,这是2026年4月GitHub上最火的开源项目干的事。

同事.skill 这个项目在上线5天内拿到了6600多颗Star,随后一路飙升破万。操作很简单——把离职同事的飞书聊天记录、钉钉文档、工作邮件喂进去,AI就能生成一个高度还原的技能包。不只是知识层面的还原,连沟通风格、决策习惯、甚至推卸责任的经典话术都能复刻。

如果AI回答得不够像本人,你还能反馈校准:他没这么温柔,他一般先发个问号。 系统会立刻调整参数,下次对话就找回了那个熟悉的感觉。

项目的slogan写得很温情——将冰冷的离别化为温暖的Skill,欢迎加入赛博永生。

然后GitHub上就炸了。前任.skill、老板.skill、导师.skill、父母.skill接连冒出来。社交平台上到处是截图:你好,我是已离职员工(王明)的数字分身,你可以向我提问。

大多数讨论集中在两个方向:一部分人觉得这是黑色幽默,一部分人开始焦虑自己会不会被蒸馏。但这两种反应都停留在情绪表面。真正值得追问的是一个更底层的问题——为什么是现在?

把人的经验封装成可复用的模块,这个想法并不新鲜。每一家公司的知识库、Wiki、Confluence、标准操作手册,本质上都在试图做同一件事。但过去这些尝试的效果大家心里有数——写得再详尽的文档,也是死的。新人读完一百页交接手册,该踩的坑一个都不会少。

同事.skill之所以不一样,不是因为它的想法更好,而是因为底层基础设施在过去半年发生了质变。

一条命令行能做的事

2025年12月,Anthropic把Agent Skills作为开放标准发布。这意味着任何人都可以用一种统一的格式——一个SKILL.md文件——来定义AI应该如何执行某类任务。这个文件不是简单的提示词,而是包含了触发条件、执行步骤、上下文知识和行为模式的完整能力包。

短短四个月,基于这套标准的技能包数量已经超过70万个。Claude Code、Cursor这些主流AI编程工具都原生支持Skills加载。一个技能包写好之后,任何人都可以一键安装、即时调用。

同事.skill做的事情,技术上并不复杂。它只是把聊天记录和文档喂给大模型,让模型提取出两层内容——显性的工作流程和技术规范,以及隐性的判断习惯、沟通风格和决策直觉。然后把提取结果写成标准的SKILL.md文件。

没有模型微调,没有独立训练,本质就是一个结构化的提示词工程。

但这恰恰是最值得警惕的部分。它的技术门槛低到几乎任何人都能操作,而产出的效果却足以在80%的日常工作场景中替代那个真人。 斯坦福和谷歌DeepMind在2024年底的实验已经证明了这一点——通过两小时深度访谈训练出的AI代理,在性格测验和社会调查中与真人的匹配准确率高达85%。

同事.skill甚至不需要两小时访谈。你在公司电脑上留下的每一条消息、每一份文档、每一次代码评审,都是现成的训练素材。

你越认真工作,越容易被复制

这里有一个残酷的悖论。

传统职场中,一个人的不可替代性来自经验积累——你处理过的棘手问题越多、踩过的坑越深、形成的判断直觉越精准,你就越难被替代。这是所有职业发展建议的底层假设。

但在AI蒸馏的逻辑下,这个假设被翻转了。你积累的经验越丰富、留下的工作痕迹越详尽,AI能从你身上提取的有效信息就越多,你的数字分身就越逼真。

那些认真写文档、详细记录决策过程、在代码评审中留下深思熟虑评论的人,恰恰是最容易被高质量复制的人。反倒是那些从不写文档、代码全靠口头传授、从来只在脑子里做决策的人,AI拿他们没什么办法。

社交平台上有人自嘲,说最好的反蒸馏策略就是正常发挥——写出来的代码本身就是屎山,AI蒸馏完也只是一坨更精致的屎山。这是一个地狱笑话,但它揭示了一个真实的困境:在AI时代,把经验系统化表达出来的能力,从职场优势变成了职场风险。

GitHub上甚至已经出现了反蒸馏工具——通过写作风格随机化、代码风格混淆、在文档中嵌入零宽字符水印等方式,干扰AI的知识提取。一份普通的工作,硬生生干出了谍战片的质感。

这件事其实一直在发生

不过,如果你因此把同事.skill当成一个突然出现的新威胁,那就低估了这件事的历史纵深。

1911年,弗雷德里克·泰勒出版了《科学管理原则》。他做的事情本质上就是蒸馏——派人站在工人旁边,用秒表记录每一个动作,把熟练工人的操作经验拆解成标准化流程,然后用这套流程训练新人。结果是搬运生铁的效率从每人每天12吨提升到47吨。

福特把这套逻辑推到了极致。T型车的组装时间从12小时压缩到90分钟。每一个工人都变成了流水线上的一个可替换节点。

从泰勒的秒表到SOP手册,从SOP到OKR,从OKR到知识管理系统,企业一直在做同一件事——把个人的隐性经验变成组织可复用的显性资产。 只不过过去这个转化过程很慢、损耗很大、效果有限。

同事.skill没有发明新的逻辑,它只是把这个存在了一百多年的趋势加了一个数量级的加速度。以前蒸馏一个熟练工人的经验需要一个团队花几个月,现在一条命令行就够了。

这才是让人真正不安的地方。不是因为它做了什么新的事,而是因为它把一件旧的事做到了接近零成本。

什么样的知识不会被蒸馏

在做了十几年系统架构之后,我逐渐形成了一个判断——可以被写进文档的知识,终将被自动化;不能被写进文档的东西,才是真正的护城河。

同事.skill能复制的东西很多:代码规范、沟通模板、决策清单、技术选型偏好。但有些东西它复制不了。

比如,面对一个没有先例的架构难题时,你脑子里同时闪过的三个方案和那种直觉性的排序——这个排序不是基于任何可文档化的规则,而是基于你过去十年踩过的坑在潜意识里形成的模式识别。

再比如,在一个紧张的技术评审中,你判断出对方的真正顾虑不是技术风险而是政治风险,然后用一种微妙的方式重新框定了讨论范围——这种能力来自对人的理解,不来自对代码的理解。

还有那些跨领域的类比能力。当你在设计分布式系统时突然想到生物学中的免疫机制,或者在做技术选型时联想到城市规划中的分区策略——这种跨域映射是目前AI最薄弱的环节。

被蒸馏的是知道什么和怎么做,不容易被蒸馏的是为什么这样判断和什么时候该改变判断。 前者是技能,后者是智慧。同事.skill把前者的获取成本降到了接近零,反过来把后者的相对价值推到了前所未有的高度。

你的skill已上传?

山东某游戏传媒公司用同事.skill把离职员工的数据训练出了AI分身继续上班。这件事引爆舆论后,项目开发者周天奕在采访中反复强调,他的初衷是沉淀团队公共工作知识,而不是复刻别人。

但意图和结果之间的距离,往往比我们以为的要远。

一个更根本的问题悬在所有人头上:你在工作中产生的判断习惯、协作风格、决策模式,到底属于你还是属于公司? 聊天记录存在公司服务器上,文档写在公司的飞书里,代码提交到公司的代码仓库——从数据归属权的角度,公司拿这些数据去训练AI,很难说有什么法律障碍。

但从劳动价值的角度,这些数据是你用十年职业生涯喂养出来的。它们是你的一部分,不是服务器上的一堆字节。

现行劳动法对这个问题几乎没有覆盖。北京某法院判过因AI替代直接解雇员工违法,但当公司要求员工主动交出经验用于AI训练时,法律的保护就显得苍白。

我们可能正在进入一个奇怪的时代——你的肉身离职了,但你的skill还在公司7×24小时运转。 你领的是8小时的工资,你的数字分身却在加班。而且它从不请假,从不要求加薪,从不在群里发牢骚。

这已经不是技术问题了。

被蒸馏后,我们何去何从?

同事.skill会降温,热搜会过去,但它揭示的趋势不会逆转。判断自己在AI时代的位置,有一个简单的测试:

如果有人拿走了你过去三年的所有工作记录——聊天、文档、代码、邮件——喂给AI,生成的数字分身能替代你多少比例的日常工作?

答案如果超过70%,你需要认真考虑一下自己的护城河在哪里。不是考虑怎么防止被蒸馏——那是螳臂当车。而是考虑怎么把时间投入到那30%不可蒸馏的部分——跨域判断、模糊决策、人际感知、以及面对没有先例的问题时的创造性应对。

泰勒用秒表蒸馏了体力劳动者的身体经验。同事.skill用聊天记录蒸馏了知识工作者的认知经验。历史没有重复,但确实押了同样的韵脚。

上一轮蒸馏之后,体力劳动者从手艺人变成了流水线工人。这一轮蒸馏之后,知识工作者会变成什么?

这个问题的答案不在GitHub上,在每个人自己的职业选择里。