乐于分享
好东西不私藏

直播微视评:别让AI成了“偷声音”的工具

直播微视评:别让AI成了“偷声音”的工具

接到陌生电话,千万不要先开口说话,这是业内人士发出的紧急提醒。
据《湖北日报》消息,武汉一家科技公司负责人介绍说,根据目前的技术水平,5到10秒的语音样本,就足以完整提取一个人的声纹特征。换句话说,接到可疑电话,你还在嘲笑对方的口音,或者应付几句人畜无害的闲聊,殊不知,对方已经可以用这么短短的几句话,通过AI技术复刻你的声音。接下来可能发生的,就是你的家人接到电话,听到那熟悉的“你的声音”:“爸妈,我手机丢了,急需用钱。”然后毫不怀疑地转账,从而受骗。
谁能想到,不法分子根本就不需要你直接上套,只要你开口说话就够了;谁能想到,5秒钟挂断、10秒钟挂断这种谍战剧中的桥段,可能成为我们日常需要注意的事项。
专家提出防范建议:一是不要随意和陌生电话“闲聊”;其次,不仅“闲聊”要小心,发送语音留言也要谨慎,因为这样的音频同样能被使用;此外,作为最后一道防线,要提醒家人,光凭“声音”辨别身份已经信不足了,遇到转账、要钱的要求,最好多方核实。
其实此前,已经有不少知名人士,遭遇了声音被复制侵权的局面。比如一段AI生成的电影《哪吒》配音,让配音演员本人听了后,都大为震惊。
据《央广网》的报道,哪吒的配音演员吕艳婷,还有太乙真人的配音演员张珈铭相继声明,抵制未经授权的AI仿声。相关人士还呼吁,除了加强自身防范和事后维权,还应该把关口前移,从技术研发和行业规则层面提前设防。比如说,允不允许软件合成我的声音,允不允许别人使用我的声音,即使允许使用,时间和范围有没有限制,这些都应该在软件开发、使用流程上做出规范,从源头保护好公民的“声音权”,不让AI成为“偷声音”的工具。

来源:经视直播

评论员:刘畅

编辑:李海、杨金金

责编:冯莹莹、李玲、张绍伟、乔飞

编审:梁湘毅

往期推荐
01
女子家中32克黄金项链被偷,慌乱之下叫上闺蜜陪她报警,警方:就是闺蜜偷的,卖了3.4万元
02
已确认:到洞庭湖采藜蒿失联女子身亡,遗体在离岸边10多米处被找到
03
南京一店长遭老板娘辱骂近50分钟,身心俱疲当天辞职,起诉后获1.8万余元经济补偿,法官:必须尊重劳动者人格尊严
04
小区高层飘窗玻璃出现一道道“血迹”,住户:可能遭鸟喷屎,该鸟曾与家中猫咪“打架”结下“梁子”
05
揪心!8个月婴儿喝蜂蜜水中毒,医生提醒