乌鲁木齐晚报全媒体讯(记者刘青霞 通讯员莫明江)“警察同志,那真的是我孙子的声音啊,我一听就慌了神!”1月26日上午,在乌鲁木齐市某银行网点内,陈女士紧攥银行卡,声音发颤地对匆匆赶来的燕儿窝街道派出所民警说道。
就在一小时前,陈女士接到一个陌生来电。电话刚一接通,听筒里便传来带着哭腔的年轻男声:“我开车不小心撞到人了……我腿伤得很重,现在在医院等着交钱做手术,需要20万,快记一下医院的账号,这事你千万别告诉我爸妈……”
陈女士心里一紧——这声音,分明就是在外地工作的孙子的声音。她顿时心急如焚,爱孙心切之下,顾不上多想,拿起银行卡就匆匆出门赶往银行。
随后,市公安局天山区分局燕儿窝街道派出所接到银行工作人员报警,称一位老年储户可能正在遭遇电信网络诈骗。
“我们赶到银行时,陈女士已经在柜台前填写汇款单了。”出警民警回忆。他们立即上前劝阻,并第一时间联系上陈女士的家属。电话那头,她的孙子安然无恙,对所谓“撞人”一事全然不知。
“这是典型的AI语音克隆诈骗。”民警向惊魂未定的陈女士耐心解释,“骗子很可能通过非法渠道获取了你孙子的声音片段,利用人工智能技术进行模仿合成,以达到以假乱真的目的。”为让陈女士更直观地了解这种手段,民警当场播放了一段反诈宣传视频,其中展示了AI模拟亲人声音实施诈骗的案例。看完视频,陈女士这才恍然大悟,意识到自己差点上当。
银行工作人员告诉民警,当时他们注意到老人神色慌张,且不停接听电话,便多询问了几句。陈女士称要给孙子转手术费,但被问及具体医院时却支支吾吾说不清楚。工作人员察觉异常,果断报警。
“现在的诈骗技术太‘逼真’了,连声音都能仿得一模一样。”陈女士的儿子得知后,既后怕又感激,“多亏民警和银行工作人员警惕性高,不然我母亲的积蓄就没了。”
警方提醒广大市民:随着人工智能技术发展,不法分子可能利用AI合成亲人、朋友的语音或视频实施诈骗。凡是通过电话、社交软件提出转账要求的,务必通过原有联系方式或见面核实,切勿轻易转账。子女应多向家中老人讲解新型骗术,提高防范意识。如遇诈骗,请立即保存证据并报警。