现在诈骗者可以使用AI来伪造任何人的声音

淡忘那些曾经 2023-04-04 12:41:25

当像 AI 这样强大的新技术在没有监管的情况下进入社会时,就会有人使用该工具谋取私利:不出所料,AI 正在使诈骗者的工作变得更加容易和可信。我们写过关于“虚拟绑架”骗局的报道——在这个计划中,骗子使用遇险儿童的通用录音并打电话给家人,希望目标认为电话另一端是他们的孩子。但现在,骗子实际上是在人工智能语音发生器的帮助下使用您孩子的真实声音。

什么是人工智能语音发生器?

西班牙音效软件公司Voicemod是这样定义AI发声技术的:

人工智能语音是一种利用人工智能和深度学习模仿人类语音的合成语音。这些声音可以通过将文本转换为语音来使用,例如使用 Voicemod 文本到歌曲,或语音到语音,这就是我们的 AI 语音收集的工作方式。

该技术现在被用于增强联邦贸易委员会归类为“冒名顶替诈骗”的行为,诈骗者假装是家人或朋友,以骗取受害者(通常是老年人)的钱财。据《华盛顿邮报》报道,2022 年,有超过 5,100 起电话冒名顶替者诈骗报告,总损失达 1,100 万美元。

有一些服务可供人们使用 AI 生成语音,例如 Voicemod,几乎没有监督。据 Ars Technica 报道,微软的 VALL-E 文本转语音 AI 模型声称能够用短短三秒的音频模拟任何人的声音。

加州大学伯克利分校数字取证学教授哈尼·法里德 (Hany Farid)告诉《华盛顿邮报》:“然后,它可以重现人声的音高、音色和个人声音,从而创造出相似的整体效果。”“它需要一段简短的音频样本,取自 抖音、快手、广告、微视、QQ或 朋友圈等地方。”

人工智能语音生成器骗局是如何运作的?

诈骗者使用 AI 语音生成器技术模仿某人(通常是小孩)的声音,以欺骗亲属,让他们认为孩子是被勒索赎金。骗子索要一笔钱,作为安全释放孩子的回报。

正如您从NBC 新闻报道中看到的那样,从社交媒体中获取一个人的声音样本并使用它生成您想说的任何内容很容易。记者能够愚弄同事以为 AI 生成器实际上是她,其中一位同意借给她公司卡进行一些购买,这太现实了。

这个骗局非常逼真,人们措手不及。也有使用相同技术的不同变体。一对来自加拿大的夫妇在接到“律师”的虚假电话后损失了 21,000 美元(折合 144557.70 元):骗子假装代表他们的孩子,据称他在车祸中杀死了一名外交官的儿子,需要钱支付“律师费” ”,而根据《华盛顿邮报》的同一篇报道,他们的儿子“在监狱里”。

您可以做些什么来避免落入 AI 语音生成器骗局?

最好的防线是意识。如果您了解该骗局并了解其运作方式,那么当它发生在您或您的亲人身上时,您就更有可能认出它。

如果您接到这样的电话,您应该立即致电或视频聊天据称被绑架的儿童或“受害者”。尽管这样做似乎违反直觉,而不是联系当局或伸手去拿银行卡交出赎金,但自己打电话给他们会粉碎骗子的幻想。如果它实际上是一个骗局,您会听到或看到另一条线路上的“受害者”在正常工作。

不幸的是,除了这些解决方案之外,您无法采取其他任何措施来防止成为攻击目标。现有技术可以检测视频、图像、音频和文本中的 AI 活动,但它不适用,也不适用于公众在这种情况下提供帮助。希望造成这个问题的技术最终会创造出一种解决方案来管理自己。

0 阅读:18