点击蓝字

关注我们
骗局揭秘:
犯罪分子利用AI换脸和拟声技术,伪装成受害人的亲友、领导或公检法人员,通过视频通话借钱或要求转账。由于画面和声音高度逼真,极具迷惑性。

经典案例:
近期,一团伙成员先通过非法渠道获取大量公民个人信息,随后在社交平台上精心打造“美女”人设,发布经过美化的视频和照片吸引男性用户关注。一旦有人上钩,他们便以“交友”“恋爱”为名与受害者建立联系,逐步获取信任。
在聊天过程中,诈骗分子会巧妙地套取受害者的家庭情况、经济状况等信息,为后续诈骗做准备。当关系发展到一定程度,团伙中的“女声”会通过变声器与受害者进行语音通话,进一步消除其疑虑。
时机成熟后,诈骗分子会抛出精心设计的骗局。他们伪造虚假的医院病历、证件等材料,声称自己或“家属”身患重病,急需大笔资金进行治疗。为了增强可信度,他们还会利用AI技术生成受害者“亲友”的视频,在视频中“亲友”会声泪俱下地请求受害者帮忙转账救急。
由于视频中的“亲友”面容、声音与真实情况高度相似,许多受害者难辨真伪,纷纷中招。在转账环节,诈骗分子要求受害者通过虚拟货币交易平台进行操作,以逃避监管和追踪。一旦资金到手,他们便迅速转移赃款,消失得无影无踪。
那么,互联网平台现有的认证方式存在哪些风险呢?
一是公民个人信息的泄露。过往公民个人信息的泄露导致基于“姓名+身份证件号码+人脸”的认证机制更易被犯罪团伙突破,同时,互联网平台为开展身份认证大量收集公民个人信息的行为也进一步增加了个人信息泄露的风险。
二是深度伪造技术的冲击。随着生成式人工智能的快速发展,深度伪造技术的更新迭代远超安全防护升级节奏,视频生成工具制作出的动态人脸视频的生物特征不断接近真人,导致人脸识别认证的安全性降低,被技术破解绕过认证的风险极大提升。
三是第三方授权登录平台的潜在风险。互联网黑灰产团伙已形成完整的犯罪生态链,一旦头部互联网平台出现认证漏洞,即可通过第三方授权登录其他平台,短时间内即会造成大量无法挽回的损失,严重危害公民的个人信息安全。
警方提醒:视频通话时,要求对方做转头、捂脸等动作,观察画面是否卡顿、变形;通过原联系方式二次确认,拒绝“单独操作”要求。


喜欢你点“在看”

夜雨聆风