乐于分享
好东西不私藏

老年人要警惕AI骗局

老年人要警惕AI骗局

先看一张图。

“沈阳劳动公园上空出现飞碟”,这张抖音截图是假的

上面这张图,你第一眼看过去,大概率会相信它是真的。抖音的界面、视频的画质、评论区的互动,都跟真的一模一样。但它是AI生成的。生成它的过程,只需要下面这张截图里的一句话。

生成上面那张假截图,只需要这一句话

一句话。不需要修图技术,不需要视频剪辑,不需要任何专业知识。你告诉AI你想要什么,它就给你生成什么。而且生成的质量,肉眼已经分不出真假了。

2026年4月22日,OpenAI发布了新一代图像生成模型GPT Image 2,内部代号”Spud”。发布之后,社交媒体上被一组测试图片刷屏了——千禧年间小学生在小卖铺买零食的照片、一张印刷完好的数学试卷、马斯克在直播间卖瑜伽裤。每一张都像用手机随手拍的,光影自然,细节真实,毫无破绽。答案是全部AI生成的。腾讯云的工程师做了24小时高强度测试,最后的结论是”有图有真相的时代,在今天被正式画上了句号”。第三方盲测中,GPT Image 2的人像真实感得分4.82分(满分5分),普通人分辨真假照片的正确率已经不到50%,跟瞎猜差不多。

我为什么要说这些?因为这些技术正在被骗子用来骗你父母的钱。

· · ·

2025年,福州一位老人接到”孙子”打来的电话。电话那头的声音跟孙子一模一样,叫出了老人的名字,说出了家里的情况,甚至知道老人刚做完手术。”孙子”在电话里哭着说出车祸需要手术费,老人当场就转了八万块过去。后来才知道,骗子从社交媒体上获取了孙子的一些语音片段,用AI语音克隆技术复制了他的声音,再配合从朋友圈搜集到的家庭信息,编排了这出戏。八万块,对一个退休老人来说,可能是好几年的积蓄。

2024年,包头市一位市民接到”朋友”的视频电话,对方的面貌、声音都跟真朋友一模一样,张口就借十万块钱。后来发现是骗子用AI换脸技术伪造的。2025年,类似案件在全国多地出现——安徽、江苏、广东、浙江,受害者遍布各个省份。骗子的手段也在升级,从最初的语音克隆,到视频通话换脸,再到用AI批量生成虚假的聊天记录、转账截图、合同文件,全套造假。

视频通话里的人,未必是你以为的那个人

我身边就有朋友碰到过。去年他接到”妈”的电话,声音完全一样,说手机坏了用别人号码打过来的,让他帮忙转一笔钱给一个”亲戚”。他差一点就转了,幸好转之前多问了一句”咱家楼下那个水果店叫什么”,对方答不上来,他才意识到不对。事后他跟我说,那个声音真的太像了,如果不是碰巧问了一个只有他妈才知道的问题,他肯定会转。

这就是AI诈骗最让人后怕的地方。它利用技术手段消除你所有的怀疑。视频里的人长得像你的亲人,声音像你的亲人,甚至能说出你家里的情况。你的眼睛和耳朵都在告诉你”这是真的”,但它们被骗了。

· · ·

你可能觉得这些事离你父母很远。但几个数据值得留意。据公安机关统计,2025年全国电信网络诈骗案件中,65岁以上受害者的比例在持续上升。更值得关注的趋势是,骗子的目标正在从”直接骗老人”转向”通过骗子女来间接骗老人”——伪造子女的声音给老人打电话借钱,或者伪造老人的声音给子女打电话要钱。两头骗,哪头得手算哪头。

而且骗子的工具越来越便宜。网上花几百块就能买到AI换脸软件的教程,花几十块就能克隆一个人的声音。骗子只需要从社交媒体上获取几张照片、几段语音,就能伪造出一个”你的亲人”来跟你视频通话。对于不太了解这些技术的老年人来说,视频里看到的就是真人,电话里听到的就是真声音,他们根本想不到这些东西可以被伪造。

视频生成技术也在快速进步。2025年,Sora、Runway等AI视频工具已经能生成几秒钟的高质量视频。2026年,生成时长和质量还在持续提升。配合AI换脸和语音克隆,骗子可以伪造一段完整的”亲人视频”——你的”儿子”在视频里跟你说话,声音、表情、背景都跟真的一模一样。你父母看到这段视频,会信吗?大概率会。

公安部2025年的反诈报告里有一句话值得记住——”AI技术正在成为电信网络诈骗的加速器,诈骗手段的逼真程度和传播速度都出现了质的飞跃。”以前骗子还需要背台词、练话术,现在AI帮他们把这些都准备好了。

· · ·

那怎么办?总不能让父母不用手机、不接电话吧。说几个实际可行的办法,不需要父母懂什么技术,关键在于养成几个习惯。

第一招:跟父母约定一个”暗号”

这是最简单也最有效的一招。跟父母约定一个只有你们家人知道的暗号——可以是一个特定的词,也可以是一个只有你们知道的问题。比如”咱家楼下那个水果店叫什么””你大孙子的小名是什么””你上次去旅游是跟谁一起去的”。接到任何涉及钱的电话或视频,先问暗号。答不上来,直接挂。骗子几乎不可能猜到这些答案。

第二招:教父母一个动作——挂掉,打回去

接到任何陌生号码打来的电话,不管对方说自己是誰——警察、银行工作人员、快递员、亲戚朋友——先挂掉。然后用手机通讯录里存好的号码打回去。如果对方说”我换号了”,让他用你存的那个号码给你打过来验证。骗子可以伪造来电显示,但他没法让你用真实号码打回去接通。这个动作能挡住90%以上的电话诈骗。

第三招:装好国家反诈中心APP

公安部官方出的APP,能自动识别和拦截诈骗电话和短信。安装好之后开启来电预警功能就行,不需要父母做什么额外操作。很多省市反诈中心的数据显示,安装了这个APP的用户,被骗概率降低了60%以上。

还有几件事值得做。帮父母把手机上不必要的权限关掉——通讯录、相册、麦克风、摄像头,很多APP会请求这些权限,但并不是都需要给。告诉父母不要在社交媒体上发清晰的正脸照、不要随便授权APP访问通讯录和相册——因为这些信息一旦泄露,骗子就有了伪造你家人声音和面孔的原材料。可疑的音视频要及时截图或录屏保存,然后报警,留存证据对警方追查很有帮助。

网络安全专家还提供了一个实用的”测试法”——当你对视频通话里的人产生怀疑时,让对方做一些简单的动作,比如用手挡一下脸再放开、快速转一下头、或者对着镜头做一个随意的表情。AI换脸在处理突然的面部变化时,往往会出现短暂的扭曲、闪烁或者边缘模糊。虽然不是百分百管用,但至少能帮你争取几秒钟的思考时间。

· · ·

跟父母当面聊,比转一篇文章管用得多

说到底,AI诈骗之所以能得手,利用的是人的信任。你父母那一辈人,大半辈子建立起来的认知是”照片不会骗人””视频里看到的就是真的””亲口说的不会假”。这些认知在过去几十年里都是成立的,所以他们深信不疑。但AI正在一项一项地推翻这些认知。他们不是不够聪明,是他们的经验已经不适用了。

“眼见为实”这句话,说了几千年。但在2026年,眼见不一定为实,耳听也不一定为实。你看到的照片可能是AI生成的,你听到的声音可能是AI克隆的,你收到的视频可能是AI伪造的。这篇文章开头那张”飞碟”截图就是最好的证明——一句话就能生成一张让所有人信以为真的假图片。

不要只转这篇文章给父母看。打个电话,或者当面聊。把文章里提到的几个办法告诉他们——约定暗号、挂掉打回去、装反诈APP。然后多叮嘱一句:以后看到任何图片、视频、聊天记录,先别急着信。骗子的技术在升级,我们的防护意识也得跟着升级。

— END —

如果觉得这篇文章有价值,请转发给身边的家人和朋友