人工智能“炼化同事”:我们对AI的焦虑,是多虑吗?


▲ (视觉中国 / 图)
-
很大程度上,“炼化同事”是一个茶杯里的风波——至少在短期内,它是被夸大了的。 -
如果一个人担心自己被“炼化”,那么他需要焦虑的不是AI会替代他,而是任何一个人都可以替代他。
文|刘远举
责任编辑|辛省志
最近,很多白领很焦虑,担心自己有一天会被“炼化”成“××.skill”,然后真身就被“优化”了。
据媒体报道,山东就有一家游戏传媒公司,把一名离职员工训练成AI数字分身,继续工作。这个顶着已离职员工姓名(已获得员工同意)的AI,引起了不少争议。再加上技术社区里宣称能够模仿员工工作风格、沟通语气的“同事.skill”项目爆火,白领的焦虑更严重了,担心自己不知道哪一天就会被替代。
其实,这种焦虑大可不必。
所谓数字分身,指的是skills技能包。2025年底,人工智能开发公司Anthropic发布Claude skills功能,教Claude以可重复的方式完成具体任务。2026年初,OpenClaw在全球迅速走红,带火了skills技能包。skill本质上是包含指令、脚本和资源的工程化文件夹,旨在提升AI在特定任务上的表现。
不妨用程序员的一个流程举例。一个商户想要接入某支付平台,原本很烦琐,开发者需要挑选适配的支付产品、研读专业技术文档、编写并调试代码等,一套完整的支付接入流程,往往要耗费开发者数天乃至数周的时间与精力。
有了大模型编程会好一些,但仍然需要教大模型。有了skills功能后,现在各个支付平台都在将这个烦琐的接入过程,做成标准化的skill包,将复杂的安全规则、业务逻辑等全部封装成AI可直接理解、调用的“技能包”,开发者无须理解底层的复杂逻辑,靠自然语言描述、说需求,就能快速、安全地把支付功能接好。
OpenClaw爆红后,“炼化同事”也开始热传。这源于GitHub 上一个名为“同事.skill”(Colleague-Skill)的开源项目,号称“将冰冷的离别化为温暖的Skill,欢迎加入赛博永生”。网友评价:“你的同事被优化了,但他的skill还在。”
具体过程是这样的,“同事.skill”通过收集同事的飞书消息、钉钉文档、工作邮件等职场数据,再配合主观描述,就能生成从两个路径模仿该员工的AI数字分身。首先是工作模式:代码风格、Code Review习惯、工作流程中的常见做法等等, AI会从海量的聊天记录和文档中提取出这些结构化数据。另一部分,是工作习惯、说话方式、表达风格、人际交往中的行为模式、甩锅姿势等等。需要指出的是,虽然代码风格是同事的,但写代码的能力,仍然是依托于大模型本身、受限于大模型本身的能力。
用生成文案的例子,更容易让人理解。
“帮自媒体客户写小红书文案”这个工作流程包括:第一步,和客户沟通产品特点、卖点、受众。这个过程,可以给AI总结一套模板;第二步,搜索竞品的相关信息,在小红书、微博、抖音上搜索。用提示词让第二步和第一步相互循环。第三步,写不同风格的标题、文案。这一部分,以前是人来写,受限于时间、精力,不可能写很多版本,现在AI写,就可以生成更多版本。还可以给AI输入不同的模板。比如,可以告诉AI标题的模式,必须带情绪词+表情。第四步,告诉AI各平台的规则,以便进行针对性的优化。
以前,每次和大模型交流,你得不断重复“教”大模型。现在,你只要说写小红书文案,大模型就会自动去调用你告诉它的这个skill包。所以,skill的本质,不是技术,不是认知,也不是广义上的经验,而是一套可以形成文字对照操作的经验、工作流程。那么,流程有了,AI照着模板做出来的也很像,但到底好不好呢?
这就涉及默会知识与显性知识的概念。
1958年英国学者迈克尔·波兰尼在《个人知识》一书中提出,可以用语言、文字、符号等完整表述和传递的知识是“显性知识”(Explicit Knowledge)。与之相对应的是,难以通过语言、文字明确表述的知识,称隐性知识或默会知识(tacit knowledge)。默会知识是认识过程中无法回避的个人参与因素,与个人判断强相关。比如要学习游泳,有很多教程把游泳分解成单个动作,手怎么样,脚怎么样,如何划水,如何抬头呼气,等等,这些都是显性知识。但是,只看这些教程,还是很难学会游泳的。要学会游泳,尤其要游得好,还需要很多个人的经验,才能让手脚配合无间。这些经验,很难用语言、文字表达出来,所谓“只可意会不可言传”。这就是默会知识。
某种程度上,大模型用巨大的参数,已经进入到默会知识这个领域了。但未来AI能否超越人类,我不知道,起码在当下,并不是所有的工作岗位都能炼化同事的。
拿我熟知的领域来讲,比如写财经、时政、科技评论,那些平时不怎么阅读的人,可能分辨不出那些AI生成的文章,但经常阅读这类文章的读者或者写作者,是一眼就能识别的。小红书文案也是如此,AI写得像模像样,但肯定比一个有经验、有技巧的人还差得远。
再比如,现在所谓的“张雪峰.skill”“巴菲特.skill”虽然号称拥有真人的知识框架、逻辑经验,但基于默会知识的差异,是不可能替代真人的。
有了这一点认识,就可以更坦然地面对所谓的“被蒸馏”“被炼化”的焦虑。
这个焦虑的第一层,是员工是否有权拒绝公司将自己的聊天记录、邮件、文档作为“训练数据”来创建数字分身?
员工不公开展示的工作技巧、私人聊天记录,公司、同事无法查看,自然也谈不上“炼化”。反之,凡是公开的,公司、同事可查看的内容,比如,提交的工作文档、群里的聊天记录、发给同事的邮件等等,以我的观点,本人不能拒绝其被“炼化”。
首先,这些东西属于员工工作内容的一部分,物理上存在于公司服务器中、同事手机上。至于其权益归属,认为公司拥有这部分内容的权益,是没多大问题的,毕竟,这是公司拿工资换的,用版权法的概念来比照,属于“职务作品”。反过来,公司如果不拥有工作文档的权益,整个市场的稳定性都将不复存在。
其次,更深层次的,这涉及对大模型工作原理的理解。在我看来,工作中留痕的技能、过程,只是对大模型的“启发”。skill相当于大模型提示词,最终产生的内容,是基于大模型所有训练内容。打个比方,一个人受了12年的教育,读了一本书之后写了读后感。这个读后感,绝非仅仅产生于这本书,而是整个12年教育的结果。这本书给了读者启发,读者只需要付费买书,但并不用额外为启发付费,作者也不能禁止“启发”。同样的,你不能禁止你的同事从你公开的工作文档、群里聊天中学习你的技巧,那么,对AI也同样如此。
公司可以要求员工提交自己的私人工作经验吗?这本质上仍然是一个工作内容的要求,而不是对隐私的侵犯,只要双方同意,就没有问题。
实际上,个体是依靠默会知识来抵抗“炼化”的。这些默会知识是在个人长期的工作经验中积累的,即使是AI分析了你所有的工作记录,可能也难以完全掌握和模仿。如果一个岗位不需要什么默会知识,那这个岗位本身就是非常容易被替代的,即使不是被AI替代,也可以随便找个了解显性知识的人来替代。
这就是一个悖论,如果一个人担心自己被“炼化”,那么他需要焦虑的不是AI替代他,而是任何一个人都可以替代他。
这是一个AI快速普及的时代。一方面,AI对现实世界的确带来了冲击。另一方面,现在也是一个自媒体时代,新奇、恐惧、愤怒,这些是流量的法宝,任何事总会朝着这三个方向夸大。炼化同事新奇,被AI替代会带来恐惧,涉及侵权会带来愤怒。三要素都齐全了。所以,很大程度上,“炼化同事”,是一个茶杯里的风波——至少在短期内,它是被夸大了的。至于长期,这或许会成为引起一场风暴的那次蝴蝶翅膀的扇动。谁知道呢。
(本文仅为作者个人观点,不代表本报立场)


夜雨聆风