• 40561阅读
  • 0回复

AI诈骗正在全国爆发

[复制链接]
上一主题 下一主题
微信分享→
离线mmmmmmmmm
 

发帖
1412
港币
572
威望
2920
来自
人生阶段
单身
职业
企业员工
只看楼主 倒序阅读 楼主  发表于: 2023-05-27
— 本帖被 noraya 从 港城茶座 复制到本区(2023-05-31) —
近日
话题#AI诈骗正在全国爆发#
冲上微博热搜!


只需要提供一张带脸的照片
就可以把自己置换成视频、
电视剧中的男(女)主角
而且拟真度非常高,毫无违和感


“AI换脸”新型诈骗频发
和你视频对话的,可能不是本人!

近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。
4月20日中午,郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。
基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。郭先生拨打好友电话,才知道被骗。骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。
幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移,目前正在全力追缴中。

在这起骗局中
骗子防不胜防的程度
超出正常认知的仿真度
令人不寒而栗

据警方介绍,AI诈骗还有不少花样
通过声音合成、AI换脸、
转发语音等手段
成功率竟接近100%!

AI诈骗常用手法
第一种:声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
第二种:AI换脸
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
第三种:转发微信语音
骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。
尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。
第四种:AI程序筛选受害人
骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。

针对花样翻新的智能AI诈骗
我们到底该如何防范?
1、不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;
2、网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;
3、如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;
4、如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。

总而言之
不管啥骗局的终极目的
都是冲着大家钱袋子去的
多学点防骗知识
多给家里老人科普科普
谁都别想卷走我们一分钱!
扩散!提醒!
 
回复标题限100 字节 提到某人:
选择好友