警惕!利用“AI换脸”等音视频诈骗案件多发

图片
近日
一起利用人工智能(AI)
实施电信诈骗的典型案例
引发关注
话题#AI诈骗正在爆发#
冲上微博热搜
据“平安包头”公众号20日发布的警情通报显示,福州市某科技公司法人代表郭先生10分钟内被骗430万元
4月20日中午,郭先生的好友突然通过微信视频联系他,说自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。
事后,郭先生拨打好友电话才知道被骗,原来骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗
图片
值得注意的是,骗子并没有使用一个仿真的好友微信添加郭先生为好友,而是直接用好友微信发起视频聊天,这也是郭先生被骗的原因之一。骗子极有可能通过技术手段盗用了郭先生好友的微信。幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移。
多地出现AI诈骗案例
据华西都市报报道,2022年2月,有位陈先生到浙江温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近5万元。经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗。
浙江温州公安曾发布消息,2021年拱宸桥派出所接到报警,受害人小陈称他在与女网友视频聊天后被对方敲诈勒索。经警方调查,对方利用AI换脸技术,将小陈视频中的面部合成到不雅视频中,借此对其实施勒索。
2020年,上海某公司高管因对方使用AI换脸与人工生成的语音技术制作公司领导的面孔,并要该高管转账,致使该高管被诈骗150万元。
利用AI诈骗有哪些常用手法?
第一种是声音合成,骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
图片
第二种为AI换脸,人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
图片
第三种是转发微信语音骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。
第四种是通过AI技术筛选受骗人群,骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。
如何防范?
面对利用AI人工智能等新型手段的诈骗,我们要牢记以下几点:
01、多重验证,确认身份
在涉及转账交易等行为时,小伙伴们要格外留意,可以通过电话、视频等方式确认对方是否是本人。
在无法确认对方身份时,可以将到账时间设定为“2小时到账”或者“24小时到账”,以预留处理时间。尽量通过电话询问具体信息,确认对方是否为本人。
即便对方运用AI技术行骗,也可以通过提问的方式进一步确认身份。建议大家最好向对方的银行账户转账,避免通过微信等社交软件转账。一方面有利于核实对方身份,另一方面也有助于跟进转账信息。
02、保护信息,避免诱惑
加强个人信息保护意识,小伙伴们要谨防各种信息泄露,不管是在互联网上还是社交软件上,尽量避免过多地暴露自己的信息。
对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。
03、相互提示,共同预防
这些高科技手段的诈骗方式,迷惑了很多小伙伴。警察蜀黎也提示各位要多多提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,共同预防受骗。
做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
04、拒绝诱惑,提高警惕
小伙伴们要学会拒绝诱惑,提高警惕。避免占便宜心理,警惕陌生人无端“献殷勤”。
来源:中国青年报微信、人民日报微信、武汉市反电信网络诈骗中心 
图片来源于网络
视频来源:超级头脑
编辑:谢思思 姜婷婷
制作:李果
二审:杨珉川
终审:代高鹏
图片
图片