ai|警惕语音克隆诈骗,AI 技术可5s 内克隆出你的声音


ai|警惕语音克隆诈骗,AI 技术可5s 内克隆出你的声音
文章图片
设想一个这样的场景:你是一个财务 , 有一天你突然接到老板的电话 , 老板让你从账户中转出50万到另一个账户 , 当做用于某个项目的资金 , 你也按照老板的要求完成了资金转出 。 这一操作看起来再正常不过 。 老板亲自打的电话 , 流程也并无问题 。 可是当你转完帐后才发现 , 自己掉入了诈骗陷阱 。 诈骗的起因 , 是因为电话那头 , 是使用ai克隆技术合成了你老板的语音 。
去年在国外就发生了这样的一件真实案例 。 诈骗分子用ai技术合成了这样以假乱真的声音 , 骗取了银行经理的信任 , 最终造成了3500万美元的损失 。
在国外知名社区Github 上 , 有一个大火的 AI 拟声项目 Real-Time-Voice-Cloning , 你使用它录入一段你的声音 , 打出想要读出的文本内容 , 这样它就可以克隆出一段和你声音近乎一样的另一段音频 。 更让人觉得不寒而栗的是 , 这样的ai克隆语音技术 , 操作起来并不难 。
【ai|警惕语音克隆诈骗,AI 技术可5s 内克隆出你的声音】不过你也不用过于担心 , 如今已经有不少的信息安全方面的公司关注到了这一点 。 他们声称可以检测出合成的语音以防止诈骗 。 与此同时 , 我们也要关注科技的新发展 , 并且不断提高自身的警惕性和安全意识 。