有人复刻前任!4小时写出的AI工具火了,网友玩疯了
最近技术圈出了个事儿,有人花了4小时写了个小工具,结果GitHub上一周涨了1.4万星。
比涨星更离谱的是——
有人用它复刻了老板。
有人复刻了前任。
还有人做了个”永生.skill”。
这事儿从技术社区一路火到了朋友圈,央视都专门做了报道。
01 一个4小时写出来的工具,怎么就火了?
这个工具叫colleague.skill,上海人工智能实验室的工程师周天奕写的。
本来就是个”顺手”做的小工具:
把工作群里的聊天记录、共享文档、邮件往来这些数字痕迹,提炼成一套AI可用的技能文件。
简单说,你把和某人的聊天记录扔进去,AI就能学会这个人的说话风格、决策习惯,甚至能模仿他的思维方式。
输出两个东西:
- work.skill
:工作技能,比如”这个人怎么处理问题” - persona.skill
:人格技能,”这个人怎么说人话”
本来是帮团队沉淀协作经验的。
结果网友拿去玩出了花。
02 网友玩疯了:老板.skill、前任.skill、永生.skill
这个工具开源后,评论区直接失控。
有人做了”老板.skill”
把老板的聊天记录、会议纪要喂进去,蒸馏出一个能模仿老板说话风格的AI。
以后写周报,直接问”老板.skill”:这个事儿你会怎么评价?
我猜打工人看完这个评论,心里都在想同一个问题:能不能再狠一点,直接让AI替老板开会?
有人复刻了前任
这个就更有意思了。把和前任的聊天记录喂进去,AI就能用对方的语气说话。
评论区有人说:
用户真正想沉淀的或许不是知识,而是与具体的人相处时形成的默契和模式。
这话说得有点戳心。
技术上能不能做到我不知道,但有人已经开始尝试了。
还有人做了”永生.skill”
这个想法更极端——把亲人的一生数据喂进去,让AI”记住”这个人。
技术团队的开发者周天奕说:
AI一定会出错,它只是预测你的下一个词。很难去完全替代人的能力本身。
但这个问题已经超出了技术的范畴。

03 技术没问题,但人呢?
这个工具火了之后,争议也来了。
隐私问题
你想复刻谁,就得有谁的数据。
聊天记录、邮件、文档——这些都是隐私。
你有没有权利把别人的数据喂给AI?
“反蒸馏.skill”出现了
有意思的是,开源社区已经出现了”反蒸馏.skill”。
专门帮助劳动者保护自己的核心知识资产,防止被AI”学会”。
攻防并存,这才几天啊。
法律怎么说?
中央财经大学的欧阳日辉教授说:
我们已经从一个层次构建了针对AI虚拟人的监管体系。网络安全法、数据安全法、个人信息保护法已经划定了基本红线。不用另起炉灶,把已有的法律法规落实到位就行。
简单说:法律框架已经有了,关键看怎么用。
04 开发者的态度:我们做了安全设计
面对争议,开发者周天奕做了几个设计:
- 数据本地处理,不外传
- 隐私数据自动脱敏
- 用户删掉技能后,本地数据一次性彻底清空
他说:
技术本身是中立的,更重要的是使用AI的人怎么样来使用好这个工具。
这话听着耳熟吗?
每次有新技术出来,都有人说这话。
但这一次,确实有人开始”玩坏”了。
05 一个小思考
colleague.skill火了之后,我看到评论区有句话:
AI替代的不是人,AI替代的是不愿意拥抱AI工具的这些人。
这话我也听了很多遍。
但这次,我突然想到另一个问题——
如果AI能复刻你,那你还是你吗?
这个问题,留给你们想吧。
🔥 再多聊会儿
这个工具火了,火的不是技术本身。
而是它戳中了所有人的软肋:
打工人想复刻老板,是想少开几个会。
有人想复刻前任,是放不下。
有人想做永生,是不想失去。
技术没感情,但用它的人有。
这就是为什么一个4小时写出来的小工具,能引发这么大的讨论。
工具地址:GitHub搜索 colleague.skill
想试试的,先想清楚一个问题:
你想复刻谁?
更重要的是——他/她同意吗?
本文首发于「聊点儿AI」,用吃瓜视角看AI圈那些事儿。关注我们,每周给你扒一扒AI圈的八卦。
夜雨聆风