震惊!AI变声换脸诈骗来了


紧急预警!
从今天起,小编告诉大家
你的《防骗手册》要增加新内容了
科技发展日新月异
奈何骗子也不落伍
玩出了新花样
这不,现在都用AI技术行骗了

是不是颠覆了你的想象
然鹅,这是真滴
下面就跟随小编了解一下吧

微信语音居然也能转发,这操作简直了!骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。需要注意的是,尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。

骗子通过骚扰电话等方式,录音提取某人的声音,并对素材进行合成,用伪造的声音实施诈骗。
案例:
2020年12月,某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。

人脸效果更容易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认,真是防不胜防!
案例:
近日,小李的大学同学通过QQ跟他借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,他在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗了,遂报案。警方判断,那段视频很可能是被人换了脸。

骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。比如说,当进行金融诈骗时,经常搜集投资信息的小伙伴会成为他们潜在的目标。运用AI技术,再加上套路和剧本的演绎,这样的诈骗手段,小伙伴们能hold住吗?


涉及到转账交易等行为时,小伙伴们要格外留意,如果无法确认对方身份,或者怀疑对方运用AI技术行骗,可以通过提问的方式进一步确认身份。
为防止骗子将个人信息进行AI技术处理,从而进行诈骗,小伙伴们要谨防各种信息泄露,不管是在互联网上还是社交软件上,尽量避免过多地暴露自己的信息。
这些高科技手段的诈骗方式,迷惑了很多小伙伴。小编也提示各位要多多提醒、告诫身边的同学、朋友提高安全意识和应对高科技诈骗的能力,共同预防受骗。
同学们要学会拒绝诱惑,提高警惕。避免占便宜心理,警惕陌生人无端“献殷勤”。
小伙伴们都记下来了吗?
面对形形色色的网络诈骗,
一定要警惕三分哦!


夜雨聆风