欢迎光临
比特币资讯网

接到“女儿”求救电话,亲妈差点被AI仿声骗了

接到“女儿”求救电话,亲妈差点被AI仿声骗了

听到电话里女儿的求救声,慌乱的母亲差点给“绑匪”打钱,但绑匪是假的,女儿的声音也是克隆的。借助最新的AI技术,骗子只要拿到他人3秒的语音,就能快速复制出一模一样的声音,甚至方言和语气也能模仿。

当人们还在惊讶AI绘画以假乱真的能力时,AI仿声技术已经被骗子应用。在加拿大,仅3天就有至少8名受害者被骗约100万元,骗子模仿亲人的声音“救急”,就算亲妈也听不出纰漏。

有了AI,“抠脚大汉”能秒变诱惑女郎,陌生人能轻松冒充成你的亲友,打钱你就输了。

从区块链到AI,每次新技术一出,诈骗者最先冲锋时代前沿。面对以假乱真的诈骗手段,普通人越来越难以防范,那些打开潘多拉魔盒的科技巨头们,也不能光忙着蒙头狂奔,得用魔法打败魔法。

AI仿声诈骗案出现 加拿大8人被骗100万

“妈妈!救我!”电话的另一头传来了女儿的哭喊声,母亲一下子慌了。还没等缓过神儿来,就听到一个陌生的男人在电话里吼道“把头往后仰,躺下”。紧接着,陌生男子发话,“你女儿在我这里,你敢打电话报警或通知任何人,我便会迷晕她,把她带到墨西哥。”

电话这头,焦急的母亲隐隐约约能听到女儿的呼救声,“妈妈,拜托救救我,救我”。此时,“绑匪”谈起了条件,需要100万美元才能放人,得到没有那么多钱的回应后,“绑匪”改口称,“拿5万美元来换你的女儿。”

上述情景是近期发生在美国亚利桑那州的真实一幕。据美国全国广播公司(NBC)报道,这是一起AI仿声诈骗案。电话那头的女孩声音,其实是AI克隆的,幸好这名母亲镇静下来,联系了丈夫确认女儿无恙,才免于被骗。

事后回忆起通话细节时,这名母亲感到阵阵后怕,虽然已经明确了这是一宗电信诈骗,但她依然对女儿的声音没有丝毫怀疑。

在人工智能提速科技变革时,不法分子正在将AI当成魔法,用最先进的技术手段实施诈骗。这种技术发达到什么程度?亚利桑那州立大学AI领域的教授坎巴姆帕蒂称,只需获得某人3秒钟的原声,就能迅速复制出完全相同的声音。

不少人已经被骗。4月2日,央视网发布视频报道,加拿大犯罪分子利用AI合成亲人声音实施诈骗,3天时间内至少有8人上当,涉案金额约100万元。这些受害者多为老年人,他们的反馈也是,“电话里的声音简直和亲人一模一样”。

甚至,以往被认为安全的“声纹”系统也能被轻易破解。今年3月,《卫报》澳大利亚版记者尼克·伊夫赛德说,他用人工智能做出自己的声音,成功进入了他的Centrelink自助服务账户。而就在两年前,澳大利亚服务局在一份报告中还声称“声纹与指纹一样安全”。

AI进化的速度实在太快了。早在2019年,《华尔街日报》曾报道过一名诈骗犯用AI语音合成来冒充老板,让一家分公司的总经理给他打了22万欧元。但在当时,诈骗者还得准备被模仿者的语料加以训练打磨。而现在,AIGC让克隆声音几乎没什么门槛,连方言和语气的模仿都不在话下。

目前,国内暂时还没有大规模出现AI仿声诈骗的案例,不过,用AI生成假图片来骗钱的事已经频频发生。

接到“女儿”求救电话,亲妈差点被AI仿声骗了

赞(0) 打赏
本文由比特币资讯网整理发布,如若转载,请注明出处:链圈子 » 接到“女儿”求救电话,亲妈差点被AI仿声骗了
分享到: 更多 (0)

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

专注于比特币资讯,比特币交易平台

区块链QQ交流群

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏