头部
以案说险:AI新型诈骗,请注意!
发布日期:2023-09-19
字号:

以案说险:AI新型诈骗,请注意!

 

随着“互联网+”时代的到来,网络技术不断进步,AI正迅速进入大众生活。需要注意的是,诈骗分子也盯上了AI技术,和你视频对话的可能不是本人,现我们就来揭秘利用AI技术实施的骗局。

一、诈骗案例

某日上午11时40分左右,福州市某科技公司经营者郭先生的好友突然通过微信视频联系郭先生,表示自己的朋友在外地投标需要430万元保证金,需要公对公转账,想借郭先生公司账户走一下账。

好友向郭先生要了银行卡号后,声称已经把钱打到郭先生的账户上,还把银行转账底单的截图通过微信发给了郭先生。基于视频聊天信任的前提下,郭先生没有核实钱是否到账,于11时49分先后分两笔把430万元给对方打了过去。

钱款转账后,郭先生电话联系上好友,对方表示没有这回事,他这才意识到自己竟然遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。

郭先生立即向公安机关报警,在公安机关及银行的协助下成功拦截该诈骗账户内的336.84万元,剩余流出资金也在公安机关全力追缴中。

二、诈骗套路

这是一起典型的AI诈骗。不法分子通过使用他人真实姓名及照片冒充其身份添加被害人微信,再利用“AI换脸”技术和被害人进行短暂视频通话,博取被害人信任后实施诈骗。

AI技术是如何介入新骗局?以下请大家注意啦!

第一种是AI换脸

因为人脸效果更易取得对方信任,骗子用AI技术换脸,就是基于已发布的照片、视频,通过人体图像合成技术生成假面,伪装成任何人,再通过视频方式进行信息确认。

第二种是声音合成

骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

第三种是转发微信语音

在盗取微信号后,骗子便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发。

第四种是AI筛选受骗人群

值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。

三、防骗指南

(一)相互提示 共同预防

要时常提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,预防上当受骗。特别提醒老年人在接到可疑电话、短信时,要再次回拨家人电话确认,不要贸然轻信。

(二)多重验证 确认身份

在涉及转账交易等行为时,多重验证身份,确认对方是否为本人。避免通过微信等社交软件直接转账,最好向对方的银行账户转账,将到账时间设置为“2小时到账”或“24小时到账”。

(三)细心判断 识别假脸

多数假脸是使用眨眼照片合成,假脸极少甚至不会眨眼,缺少眨眼是判断一个视频真假的好方法。辨识“深度伪造”换脸视频的方法还包括语音和嘴唇运动不同步、情绪不符合、模糊的痕迹、画面停顿或变色等。

广东华兴银行提示您:

1. 不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;

2. 网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;

3. 如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;

4. 如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。

 

附件:

以案说险:AI新型诈骗,请注意!

以案说险:AI新型诈骗,请注意!

 

随着“互联网+”时代的到来,网络技术不断进步,AI正迅速进入大众生活。需要注意的是,诈骗分子也盯上了AI技术,和你视频对话的可能不是本人,现我们就来揭秘利用AI技术实施的骗局。

一、诈骗案例

某日上午11时40分左右,福州市某科技公司经营者郭先生的好友突然通过微信视频联系郭先生,表示自己的朋友在外地投标需要430万元保证金,需要公对公转账,想借郭先生公司账户走一下账。

好友向郭先生要了银行卡号后,声称已经把钱打到郭先生的账户上,还把银行转账底单的截图通过微信发给了郭先生。基于视频聊天信任的前提下,郭先生没有核实钱是否到账,于11时49分先后分两笔把430万元给对方打了过去。

钱款转账后,郭先生电话联系上好友,对方表示没有这回事,他这才意识到自己竟然遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。

郭先生立即向公安机关报警,在公安机关及银行的协助下成功拦截该诈骗账户内的336.84万元,剩余流出资金也在公安机关全力追缴中。

二、诈骗套路

这是一起典型的AI诈骗。不法分子通过使用他人真实姓名及照片冒充其身份添加被害人微信,再利用“AI换脸”技术和被害人进行短暂视频通话,博取被害人信任后实施诈骗。

AI技术是如何介入新骗局?以下请大家注意啦!

第一种是AI换脸

因为人脸效果更易取得对方信任,骗子用AI技术换脸,就是基于已发布的照片、视频,通过人体图像合成技术生成假面,伪装成任何人,再通过视频方式进行信息确认。

第二种是声音合成

骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

第三种是转发微信语音

在盗取微信号后,骗子便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发。

第四种是AI筛选受骗人群

值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。

三、防骗指南

(一)相互提示 共同预防

要时常提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,预防上当受骗。特别提醒老年人在接到可疑电话、短信时,要再次回拨家人电话确认,不要贸然轻信。

(二)多重验证 确认身份

在涉及转账交易等行为时,多重验证身份,确认对方是否为本人。避免通过微信等社交软件直接转账,最好向对方的银行账户转账,将到账时间设置为“2小时到账”或“24小时到账”。

(三)细心判断 识别假脸

多数假脸是使用眨眼照片合成,假脸极少甚至不会眨眼,缺少眨眼是判断一个视频真假的好方法。辨识“深度伪造”换脸视频的方法还包括语音和嘴唇运动不同步、情绪不符合、模糊的痕迹、画面停顿或变色等。

广东华兴银行提示您:

1. 不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;

2. 网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;

3. 如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;

4. 如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。

 

附件:

底部