四川一女子遇“AI 拟声”“AI 换脸”诈骗:不法分子谎称其女儿被绑架,险被骗走 80 万元
IT之家 1 月 25 日消息,据平安江阳今日通报,近日四川江阳一名女子险些遭遇新型电信诈骗,诈骗分子利用虚拟号码伪装其女儿的电话号码,并利用 AI 合成的方式模拟她女儿的声音实施诈骗。警方最终确认其女儿的人身安全,并没有被绑架,这名女子险些被骗走 80 万元。
当事人陈女士(化名)突然接到“女儿”的电话,电话里女儿哭哭啼啼地说自己被绑架了。随后,“女儿”的电话被一名陌生男子抢走并威胁道:如果想要女儿安全,就必须交 80 万元赎金。
陈女士发现来电号码是自己女儿的名字,声音也是女儿的声音,瞬间后背发凉,按照对方的指示添加了微信。她随后告诉对方大额转账需要到银行办理,同时让老公打电话确认女儿人身安全。
然而,女儿及其同事都联系不上。陈女士前往北城派出所,接警民警朱庆不停安抚陈女士,并查看了对方电话号码。结果该号码为“00”开头,朱警官第一反应是遇上了电信网络诈骗,便立即劝阻陈女士千万不要向“绑匪”转账。
陈女士遭遇的是近期电信网络诈骗的“新招数”:“AI 拟声”“AI 换脸”诈骗。事后,民警对陈女士开展反诈宣传,陈女士对民警的劝阻和暖心安抚表达了感谢。警方提醒:陌生链接不要点击,谨防个人信息泄露;遇到该类情况应保持冷静,第一时间拨打 110 报警,切忌转账汇款。
据IT之家此前报道,国家金融监督管理总局北京监管局去年 10 月发布风险提示,提醒消费者近期重点防范新型欺诈手段,守护家人亲朋财产安全。
不法分子利用非法获取的个人信息,通过计算机算法仿真合成受骗者亲人、领导同事或公职人员的肖像面容与声音,冒充上述人员身份行骗。在获得受害者信任后使用事先准备好的套路话术向受害人发送银行卡转账、虚拟投资理财、刷单返利等诈骗信息,并利用视频通话、语音轰炸等手段进一步降低受害者的防备心,受害者往往在短时间内难以察觉异样,一旦听信诈骗分子的骗术并完成转账,对方便杳无音信。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。