AI被滥用的风险:小心您的声音安全

新知榜官方账号

2023-06-29 19:54:42

风险背景

人工智能有巨大的潜能改变人类命运,但同样存在一定安全风险。

AI基础设施潜藏安全风险。比如,全球著名漏洞数据库CVE披露的典型机器学习开源框架平台安全漏洞数量逐渐增多。另一方面,AI设计研发阶段安全风险突出,出现了许多针对AI系统的新型安全攻击手法,如对抗样本攻击、数据投毒攻击、模型窃取攻击等。除此之外,AI应用失控风险危害显著,像“深度伪造”类应用,给大众带来新奇的体验的同时,也带来了新的安全隐患,一旦这类应用被攻击者滥用,将助长谣言传播、黑灰产诈骗等。

VoIP电话劫持语音模拟攻击

AI语音技术是AI的一个分支,随着AI技术的发展,AI语音技术也在突飞猛进换代升级。通过基于AI的深度伪造变声技术,可以利用少量用户的声音生成他想要模仿的声音。这种技术给用户带来新奇体验的同时,也潜在安全风险。深度伪造AI变声技术也可能成为语音诈骗的利器。

研究发现,利用漏洞可以解密窃听VoIP电话,并利用少量目标人物的语音素材,基于深度伪造AI变声技术,生成目标人物声音进行注入,拨打虚假诈骗电话。

技术原理

总的来说,这种新型攻击的实现方式分为两个部分,一是VoIP电话劫持,二是语音模拟。

  1. VoIP电话劫持
    • 音频嗅探技术
    • 来电身份及语音篡改
  2. 语音模拟

真实案例

英国某公司CEO遭AI语音诈骗,损失220,000欧元(约合人民币173万元)。

防范建议

如何防范这样的攻击,其实可以从防范传统攻击以及防范AI恶意应用两个角度来说。首先,要防御类似的攻击手法,需要防止VoIP漏洞被攻击者利用,安全工程师建议,可以使用新版本的VoIP协议电话,如SIP、SRTP等,减少数据被嗅探甚至被篡改流量包的风险。其次,可以用AI对抗AI,规避AI技术的不合理应用。

针对语音的攻击手段并不只有这一种,可以给语音中添加微小扰动,或修改部分频谱信息,就可以欺骗语音识别系统。或者,将唤醒命令隐藏在不易察觉的音乐中,就可能唤醒智能设备进行对应操作。AI应用失控问题不应忽视,应合理善用AI技术,捍卫技术的边界。除了AI应用失控的问题,AI的数据、算法、模型、基础组件等核心要素,均潜在安全隐患,AI安全问题日益凸显。

本页网址:https://www.xinzhibang.net/article_detail-2876.html

寻求报道,请 点击这里 微信扫码咨询

关键词

AI安全 语音模拟 VoIP电话劫持

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯