【资料图】
7月10日,DeepFake,一种能生成特定人物照片、视频及音频的AI模型,因其生成的信息能轻松绕过各种企业机构的识别系统,引发了许多黑产活动。如何更精准地辨识DeepFake生成的内容,成为了当前的难题。 加拿大滑铁卢大学的两名研究人员AndreKassis与UrsHengartner研发出了一款新型语音DeepFake软件,该软件使用机器学习技术,只需5分钟的人声录音,就能模拟出极其逼真的人声,成功欺骗语音认证系统的概率高达99%。在语音认证注册过程中,系统会要求用户重复一个特定的短语或句子,并根据用户的声音提取声纹(语音指纹)存储在服务器。当用户尝试进行身份验证时,系统将提示用户说出不同的短语,并将提取的特征与系统中存储的语音指纹进行比较,以确定是否应授予访问权限。 对于这款新型语音DeepFake软件,其他安全研究人员也开始采取应对措施,例如某公司的研究人员尝试检查语音样本,以判断样本的真实性。然而,Kassis与Hengartner却找到了一种方法,可以辨识并自动移除合成语音中的AI特征段落,使系统无法区分。 另一方面,专门开发语音身份认证安全机制的Pindrop认为,这一机制并不稳妥。他们指出,虽然攻击方可以移除生成的语音片段中具有AI特征的段落,但防守方可以从多角度判断音频文段的真实性,例如检测IP地址、要求提供特定的语音信息等,因此依然可以检测出使用DeepFake的攻击者。 然而,Pindrop的研究人员同时指出,现有用来对抗Deepfake语音的系统存在许多缺陷,打造安全系统的唯一方式是像黑客一样思考。他们建议,那些只依赖语音进行身份认证的企业,应该部署额外的认证措施,以防止企业受到诈骗,导致经济损失。