张雪峰的家属最近发现,有人在用张雪峰的影像和声音,做了一个能回答所有志愿问题的AI克隆体。
我看到这条新闻的第一反应,不是"张雪峰真倒霉",而是:
"我发了这么多年朋友圈、抖音、公众号——如果有人想克隆我,他能做到吗?"
答案是:能——而且成本不到500块钱。

我花了三天,系统性地查了AI克隆技术的现状。结论很直接:
声音:3-5秒的语音样本,就能生成和本人相似度超过90%的合成声音。微信语音、播客采访、公开视频——任何包含你声音的文件,都是原材料。
形象:一张正面照片,就能生成动态视频。不需要你配合,不需要你知情。
思维:你写的所有文字(公众号、微博、知乎回答、工作邮件)加起来,足够训练出一个"思维克隆体"——它能以你的逻辑回答你没遇到过的问题。
这不是电影,这是2024年已经成熟的技术。
但让我真正不安的,不是技术本身——而是它的获取门槛,已经低到了任何人都能触达的地步。
有人说:名人有商业价值,才会被克隆。你一普通人,谁费那劲?
但现实是,AI克隆已经形成了一条完整的灰色产业链,而且这条链条的运作方式,远比大多数人想象的更隐蔽、更日常。
先说声音诈骗。 2023年,多地警方披露了一种新型诈骗:骗子通过AI合成声音,冒充受害者的子女或孙辈打电话求救。台词几乎一模一样——"奶奶,我出事了,急需钱"——声音语气、停顿习惯、甚至那点特有的口音,全都仿得一模一样。全国已有多地老人上当,单笔最高损失超过50万元。有人会问:老人警惕性不高可以理解,年轻人呢?但事实是,这类诈骗的目标从来不挑年龄——只要声音足够真实,受骗概率就跟年龄无关。

再说形象盗用。 你可能不知道,你的照片正在被批量爬取,用作AI训练的素材。在一些地下论坛,打着"真人照片素材"名号的商品比比皆是。买回来之后干什么?生成虚拟形象、做虚假广告代言、制造不存在的"证人证言"……你的脸,可能正出现在你自己从未同意过的内容里,而你毫不知情。
最可怕的,是思想伪造。 你的公众号文章、知乎回答、朋友圈长文——这些加在一起,足够训练出一个"以你之名发言"的AI。它没经过你授权,但它能说出"你会说的话",用它从未经历过的人生经历,去影响它从未认识的人。
最可怕的不是"有人克隆我"——最可怕的是:被克隆后的那个"我",会做一些"真正的我"永远不会做的事,而你毫无办法。
有人会觉得这是危言耸听。但张雪峰的案例就在眼前——一个已经离世的人,他的家属没有任何机会说"不",他的声音和思想就被打包成了一个24小时在线的"数字服务员"。这不只是侵犯肖像权,这是对一个人存在本身的绑架。
张雪峰的案例之所以引发广泛关注,因为它是最好的普法教材:
连张雪峰这样有家属、有公司、有法律团队的名人,都无法阻止AI克隆体的出现。
普通人呢?
我们的困境是双重的: - 没有足够的法律资源维权:张雪峰的家属如果维权,至少还有经济实力请律师、发律师函。普通人的你,遇到自己的声音被AI合成、照片被用于不知名广告时,你甚至不知道该找谁投诉。 - 缺乏对数字资产的基本保护意识:我们这代人,从小被教育的是"保护好自己的银行卡密码",但没有人告诉我们,还要保护好自己在网上的每一条语音、每一张照片、每一篇长文。
这不是宿命,这是现实——而现实是可以被改变的。
但改变需要时间。在规则建立之前,你我唯一能依靠的,是自己的主动防御。
我不是一个悲观主义者。既然技术已经不可逆,我要做的是:在规则建立之前,先保护好自己。
第一,我清理了我的公开数据。 把朋友圈、抖音的可见范围重新设置了一遍,发出去的内容不再默认公开。不是阴谋论,是基本的数字卫生。就像你会定期更换密码一样,定期审视自己在网上的公开痕迹,也应该成为每个人的日常习惯。
第二,我给家人约定了"AI验证暗号"。 一个只有家人知道的词语,如果有人用我的声音给他们打电话,这是一个只有家人能回答的验证方式。在AI诈骗越来越逼真的年代,这种"只有真人知道"的验证方式,是目前最有效的防线之一。
第三,我在每一个平台上支持"AI内容强制标注"的立法倡议。 转发、评论、发声——每一次参与,都是在推动规则建立。不要小看每一次转发和评论,那是在告诉平台和立法者:有人在乎这件事,有人在要求改变。

这不是多此一举。这是在技术失控之前,我们为数不多的主动权。
技术会越来越强,但人心向善的选择,永远掌握在人手里。
AI克隆可以复制声音、复制形象、复制思维——但它复制不了一个人的责任感和对他人命运的真正关心。张雪峰的价值,从来不是他知道什么志愿填报的答案,而是他愿意为一个普通家庭的孩子付出时间和耐心。
这种东西,复制不出来。
夜雨聆风