留心!AI语音模仿儿子声音求救打钱,声音一模一样,夫妻被骗十几万刀!
AI语音模仿儿子声音搞诈骗
一模一样导致父母上当
这天,艾米·特拉普(Amy Trapp)在米尔谷学校(Mill Valley school)的办公室工作时,接到陌生号码的电话。
她接起电话,心想可能与当天早些时候的学校消防演习有关。然而,一个熟悉的声音——一个她最熟悉的声音——接通了电话。
「电话里是我儿子的哭声,他告诉我『妈妈,妈妈,我出了⻋祸!』」。特拉普说。瞬间,她感到恐慌加剧。她的脑海中闪过儿子威尔(Will),在加州中央海岸上大学的情景:他躺在路边的血泊中,或被困在翻倒的汽⻋里。
特拉普確信儿子遇到了麻烦。当一名男子打来电话,告诉她他是一名警官,威尔在车祸中撞伤了一名孕妇,並被送进了监狱时,她相信了他,因为威尔的声音让她確信无疑。
她还相信了另一名男子,此人自称是威尔的公设辩护人,要求她从自己的银行账户中,取出15,500美元来支付儿子的保释金。
直到事件发生数小时后,特拉普的丈夫直接报警,这对夫妻才意识到这是一场骗局。显然,这些人利用人工智慧技术,复製了威尔的声音。在整个过程中,威尔一直在客厅安静地学习。
虽然无法准確知道骗子使用的是哪种技术,但特拉普从确定的是:「我毫不怀疑,我是在和我的儿子通话。」
在那一刻,特拉普完全没有意识到,自己是一个复杂骗局的目標,当一个陌生的声音接通电话时,她的判断力被恐惧和肾上腺素蒙蔽了。
人工智能让骗子变得更加精明
语音模仿逐渐成为主流骗术
数字安全公司迈克菲(McAfee)的威胁研究高级主管,阿布捨克·克尔尼克(Abhishek Karnik)说,这种电话诈骗的版本已经存在多年。现在最大的不同是使用了人工智能。
克尔尼克说:「事实上,克隆声音非常容易,你可以与受害者建立非常强烈的情感联繫。如果再加上一些紧急或困扰的情感......他们就会失去实际判断的能力。」
人工智慧的⻜速发展,使得现在的技术只需要几秒钟的声音样本,就能创造出一个人的数位仿製声音。
联邦调查局旧金山特別主管探员,罗伯特·特里普(Robert Tripp)对《旧金山纪事报》说:「20年前,需要好莱坞製片厂或一个国家的资源,你才能做到这一点。现在,犯罪分子可以使用人工智慧偽造声音,这些工具要么在公共领域免费提供,要么成本很低。」
一些开发这种技术的公司,严格控制谁可以使用它。克尔尼克说,但也有一些公司允许用户上传简短的语音片段,供人工智慧学习,以逼真地朗读用户输入的任何文本,匹配准確率高达85%。
克尔尼克说,这种简短的语音片段,很容易从社交媒体或其它网络上获取。
不少民众因AI骗术损失惨重
但钱款很难追回
近年来,不管有没有使用人工智能,诈骗电话在加州和美国各地层出不穷。
据联邦调查局(FBI)估计,截至去年9月,该局已收到超过195起此类诈骗的投诉,损失金额近190万美元。还有一些骗局让人以为电话来自警察局。有些人要求用数字货幣解决法律问题。
几年前,一位律师在国会作证时说,他因为一个与特拉普一家几乎相同的电话诈骗,而损失了一大笔钱。
联邦调查局特工特里普说,他的办公室没有关於有多少报告的诈骗涉及人工智能的数字,但鼓励任何可能成为此类犯罪受害者的人,向该机构的网络犯罪投诉中心举报。
加州总检察⻓办公室在电子邮件声明中说,越来越多的诈骗包括电话诈骗,使用人工智能,鼓励受害者透过 oag.ca.gov/report 进行举报。
特拉普说,她给圣拉斐尔(San Rafael)警察局打了电话,警方表示无能为力。
联邦调查局特工特里普说,这种企图是一种犯罪,但起诉可能涉及国际罪犯。
他说,该机构会监控向网路犯罪投诉中心(Internet Crime Complaint Center)提交的报告,以了解趋势,並因此抓获了一些骗子。
接到陌生电话需仔细识别
多留个心眼
事件发生后,特拉普夫妇向许多熟人讲述了他们的故事,希望能让其他人免於遭受同样的精神痛苦,即使最终没有財產损失。
威尔·特拉普不清楚,怎么会有人拿到他的声音录音。他並不热衷於使用社交媒体,他使用的帐户都是私人的。他说他会唱歌和製作音乐,有时也会在网上发布。
他说:「很难想像是怎么被人利用的,因为这不像我说话的声音。这真的很可怕。」
微信扫码关注该文公众号作者