乐于分享
好东西不私藏

有人复刻前任!4小时写出的AI工具火了,网友玩疯了

有人复刻前任!4小时写出的AI工具火了,网友玩疯了

最近技术圈出了个事儿,有人花了4小时写了个小工具,结果GitHub上一周涨了1.4万星。

比涨星更离谱的是——

有人用它复刻了老板。

有人复刻了前任。

还有人做了个”永生.skill”。

这事儿从技术社区一路火到了朋友圈,央视都专门做了报道。


01 一个4小时写出来的工具,怎么就火了?

这个工具叫colleague.skill,上海人工智能实验室的工程师周天奕写的。

本来就是个”顺手”做的小工具:

 把工作群里的聊天记录、共享文档、邮件往来这些数字痕迹,提炼成一套AI可用的技能文件。 

简单说,你把和某人的聊天记录扔进去,AI就能学会这个人的说话风格、决策习惯,甚至能模仿他的思维方式。

输出两个东西:

  • work.skill
    :工作技能,比如”这个人怎么处理问题”
  • persona.skill
    :人格技能,”这个人怎么说人话”

本来是帮团队沉淀协作经验的。

结果网友拿去玩出了花。


02 网友玩疯了:老板.skill、前任.skill、永生.skill

这个工具开源后,评论区直接失控。

有人做了”老板.skill”

把老板的聊天记录、会议纪要喂进去,蒸馏出一个能模仿老板说话风格的AI。

以后写周报,直接问”老板.skill”:这个事儿你会怎么评价?

我猜打工人看完这个评论,心里都在想同一个问题:能不能再狠一点,直接让AI替老板开会?

有人复刻了前任

这个就更有意思了。把和前任的聊天记录喂进去,AI就能用对方的语气说话。

评论区有人说:

 用户真正想沉淀的或许不是知识,而是与具体的人相处时形成的默契和模式。 

这话说得有点戳心。

技术上能不能做到我不知道,但有人已经开始尝试了。

还有人做了”永生.skill”

这个想法更极端——把亲人的一生数据喂进去,让AI”记住”这个人。

技术团队的开发者周天奕说:

 AI一定会出错,它只是预测你的下一个词。很难去完全替代人的能力本身。 

但这个问题已经超出了技术的范畴。


03 技术没问题,但人呢?

这个工具火了之后,争议也来了。

隐私问题

你想复刻谁,就得有谁的数据。

聊天记录、邮件、文档——这些都是隐私。

你有没有权利把别人的数据喂给AI?

“反蒸馏.skill”出现了

有意思的是,开源社区已经出现了”反蒸馏.skill”。

专门帮助劳动者保护自己的核心知识资产,防止被AI”学会”。

攻防并存,这才几天啊。

法律怎么说?

中央财经大学的欧阳日辉教授说:

 我们已经从一个层次构建了针对AI虚拟人的监管体系。网络安全法、数据安全法、个人信息保护法已经划定了基本红线。不用另起炉灶,把已有的法律法规落实到位就行。 

简单说:法律框架已经有了,关键看怎么用。


04 开发者的态度:我们做了安全设计

面对争议,开发者周天奕做了几个设计:

  • 数据本地处理,不外传
  • 隐私数据自动脱敏
  • 用户删掉技能后,本地数据一次性彻底清空

他说:

 技术本身是中立的,更重要的是使用AI的人怎么样来使用好这个工具。 

这话听着耳熟吗?

每次有新技术出来,都有人说这话。

但这一次,确实有人开始”玩坏”了。


05 一个小思考

colleague.skill火了之后,我看到评论区有句话:

 AI替代的不是人,AI替代的是不愿意拥抱AI工具的这些人。 

这话我也听了很多遍。

但这次,我突然想到另一个问题——

如果AI能复刻你,那你还是你吗?

这个问题,留给你们想吧。


🔥 再多聊会儿

这个工具火了,火的不是技术本身。

而是它戳中了所有人的软肋:

打工人想复刻老板,是想少开几个会。

有人想复刻前任,是放不下。

有人想做永生,是不想失去。

技术没感情,但用它的人有。

这就是为什么一个4小时写出来的小工具,能引发这么大的讨论。

工具地址:GitHub搜索 colleague.skill

想试试的,先想清楚一个问题:

你想复刻谁?

更重要的是——他/她同意吗?


本文首发于「聊点儿AI」,用吃瓜视角看AI圈那些事儿。关注我们,每周给你扒一扒AI圈的八卦。