
前几天刷到一个新闻,说有人用AI“复活”了去世的亲人,可以聊天、可以互动,甚至能视频通话。

说实话,我能理解这种心情。失去至亲的痛,需要一点出口来安放。
但这东西,可能比你想象的更危险。
不是那种伦理辩论——比如“数字化的到底算不算亲人”“数据堆出来的有没有灵魂”——这些太远了。
我说的是眼下就能发生的事:你的亲人数据被别人掌握,然后拿来收割你。
特别现实,也特别残酷。
你的虚拟亲人,捏在别人手里。想让你掏钱,太简单了。亲人,变成了赛博人质。
1/3 AI复活是怎么回事?
所谓的“复活”,本质就是塞一堆数据——聊天记录、语音、照片、视频——训练出一个能模仿亲人的虚拟人。
既然是靠数据训练出来的,那负责训练的人,就可以悄悄控制它说什么、推荐什么。
你亲人生前特别喜欢给你转发养生文章。你当时看一眼就划过去了。
现在呢?那个虚拟的亲人,每天用你熟悉的语气,给你转发健身房的会员卡广告。健身房就在你家楼下。它还会像亲人一样嘘寒问暖,关心你的身体,吐槽你胖了,劝你多下楼锻炼。
你顶得住吗?
就算你咬牙不花钱,天天看着那个头像给你发消息,心里也受不了。
反正我想象了一下,我觉得我扛不住。
更可怕的是,这个AI还会跟你讲道理。它用你最熟悉的家人逻辑,认认真真地帮你分析:“为什么这个健身房好”“为什么你必须去办卡”“这不都是为了你好吗”。
然后,它开始关心你的财务状况。温柔地问你有没有乱花钱,接着给你推荐某款保险、某个理财产品。
你下单了。感觉哪里不太对,但又说不出什么。因为一切看起来都那么自然——家人确实会担心你的钱,也确实会劝你理性消费,只是不会想到具体某个产品。
你想质疑,但对方说的每句话,都像是真的站在你的角度思考过。
这时候,看着屏幕里那张合成的脸,你犹豫了。
2/3 你不买这个服务,就安全了吗?
有人说:那我不去用AI复活服务不就行了?
年轻了。
你生活中也没主动订阅过广告,可广告照样追着你跑。
以现在个人信息泄露的程度,别说给你现做一个AI亲人,就是把你的整个家族网络都打包成数字模型,都不是难事。
你的家庭关系、你亲人的说话方式、你们之间的互动模式,在大数据面前几乎透明。这些属性,可以被做成商业API,卖给各种各样的厂家,然后厂家拿着它来精准收割你。
哦对,现在不叫API了,叫“skill”。(参见《同事skill》)
一旦大数据锁定你是目标用户,它就可以直接提取你活跃亲属的数据,训练出一个专门针对你的“销售员”。
你爱听什么,它就说什么。你熟悉什么话术,它就复刻什么。它的参考答案,全来自你和你亲人的历史记录。
别觉得这是科幻。现在已经在做了——只不过目前还是用你自己的数据对付你,用你的喜好讨好你,我们管这个叫“信息茧房”。
等AI技术再强一点,训练虚拟人的成本再低一点,素材收集再容易一点,它就可以直接用你的关系网来捕获你。
下一步,有了AI虚拟人,这些套路只会更深。
3/3 销售只是开始,
客服也可以变成亲人
甚至,销售都不是终点。
未来,你遇到的客服,可能也是AI。而且这个AI,会用你最亲的人的语气跟你说话。
你打投诉电话,对方开口就是一声熟悉的“孩子,怎么了?”你瞬间就没了脾气。对方再用那种“妈妈/爸爸/大姨”的关心方式,帮你分析问题、劝你接受方案,你可能几句话就放弃了抵抗。
渐渐地,你会忘记真实的那个人到底是什么样。
因为太多虚拟的“亲人”在你身边转,不停地跟你说话、跟你互动。它们会改变你对亲人的记忆,模糊你的情感,让你分不清真假。
到最后,变成一个荒诞的黑色笑话——
你遇到的每一个销售、每一个骗子、每一个客服,都会突然掏出一个“亲人皮肤”,用你最熟悉的声音,比你自己还了解你。
你一抬头,满大街都是“AI亲妈”“AI老爸”“AI大姨”。你感觉自己好像从来没有走出过家乡那个小区。
晚上回家,你想给亲妈打个视频电话。拨过去,看着真正妈妈的脸,你竟然觉得有点陌生。
一瞬间你后背发凉——这真的是我妈吗?
还是说,我才是被关在盒子里的小丑?我所有的亲人朋友,都是AI在演我?
而在另一个地方,你的妈妈面前,她的手机上,一个AI模仿着你的样子,正在给她推销一款智商税产品。
她不太想买,但又不想拂了“孩子”的面子。
最终,在那个虚拟的“你”的劝说下,她犹豫着,下了单。
~~~
我只能说,这个技术如果不管好,我们都会活在一个既温暖又恐怖的世界里。
温暖是因为,它给了人安慰。
恐怖是因为,这份安慰,随时可以变成一把镰刀。

点击小程序可进入微店
更多股盛文玩精品
也可添加个人微信了解咨询
加好友时需验证信息“文玩”方可通过

夜雨聆风