骗子利用AI克隆你家人语音 如何不上当受骗?
人工智能技术的发展给骗子带来新的诈骗花招,AI语言克隆便是其中之一,在这种诈骗中,骗子通常会用AI克隆你的家人或亲友的声音,向你发出求助,让你信以为真,当你把钱汇出去时,才恍然发现原来是骗局。 根据CBS2NY报道,美国联邦贸易委员会的数据显示,过去四年,涉及商业冒名顶替者的诈骗不断增加。去年,损失超过 7.52亿美元。 CBS2NY进行了调查,发现克隆某人的声音非常容易。 由人工智能支持的网站允许任何人克隆亲人的声音,步骤简单快捷。用 Google搜索,很快就可以找到一个人工智能网站,仅需支付五美元,就可以使用其语音克隆服务。 AI语音技术是一把双刃剑,它可以帮助失去声音的人发声,也会被利用来行骗。图为一名失去声音的女孩输入文字,AI用她的声音说出。(美联社图)
接下来只需要某人一段 30秒的音频片段,然后输入你想说的话,AI便能克隆出这个人的语音。整个过程只需二到四分钟。 骗子可以从发布到社交媒体的视频,或从语音邮件中提取你的声音,或者他们可以给你打电话并录音,让你防不胜防。 AI语音克隆是如此逼真,甚至连经验丰富的人也可能受骗上当。 据CBS2NY报道,加里·希尔霍恩 (Gary Schildhorn)是一位律师,他本人也差点成为声音克隆骗局的受害者。 某天他接到儿子的来电,说“爸爸,我遇到麻烦了,我出了事故。我想我鼻子骨折了。我撞到了一名孕妇。他们逮捕了我,我进了监狱。你需要帮助我。” 希尔霍恩说,他真的以为就是儿子。“我知道那是我的儿子。我心里毫无疑问。” 他赶紧开车去银行提取 9000美元现金,同时向儿子的妻子通报了最新情况。然后他接到儿子通过 FaceTime打来的电话。 儿子说,“爸爸,我的鼻子没骨折。我很好。你被骗了。” 由于他没有损失金钱,所以没有法律追索权。 希尔霍恩联系了执法部门,但被告知犯罪分子无法追踪,因为骗子使用一次性手机来获取加密货币。 AI骗局这么厉害,怎么防范呢? 国会众议员伊维特·克拉克(Yvette D.Clarke)代表纽约第九选区,也是美国众议院人工智能工作组的成员。她提出了一项立法,要求公司对人工智能生成的内容添加数字水印。 如果该法案通过,消费者将被警告他们正在听假的语音,如果他们受到假语音内容的伤害,他们可以提起诉讼。 克拉克说:“对于普通人来说,辨别人工智能生成的内容和真实的内容将非常困难……采取防范措施的时间很紧迫。” 一家AI合成音频的初创公司对制定法规表示支持:“非常支持引入监管,这将有助于确定数字内容的起源,包括水印。” 执法部门建议民众,您应该创建一个密码并与家人分享。在紧急情况下,代码将帮助您验证电话上的人是真还是假。 执法人员还表示,如果有人向你索要金钱或敏感信息,请暂停。 皇后区检察官凯兹说:“尊重你的感觉,相信你的直觉,相信你的判断并仔细检查。” (编译:JL)