语音欺骗技术曾在3月份从一位不知情的能源公司首席执行官那里窃取了25万美元,后者认为他正在与(德国)老板交谈。最近的一项研究表明,有72%的人在阅读AI产生的新闻故事时认为这是可信的。9月,名为Zao的智能手机应用在中国引起了轰动。在政府突然将其取缔之前,赵无极允许人们无缝地将自己融入著名的电影场景。
还有一个臭名昭著的案例,就是众议院议长南希·佩洛西(D-Calif。)篡改过的视频,在被发现被操纵使自己看上去醉酒之前就开始传播。
人工智能在人工智能方面的最新进展大部分都来自于感知智能领域。这使我们的设备可以查看(例如,识别朋友的面孔),收听(和识别歌曲),甚至解析文本(并识别邮箱中电子邮件的粗略意图)。当今的AI技术也可以产生这些感知力-我们的设备可以产生从未存在的场景和面孔,克隆声音以产生语音,甚至对收件箱中的电子邮件写出简明的(如果是僵硬的)响应。
这种产生感知的能力使AI处于充满希望和巨大危险的位置。
合成媒体可以有许多有益的应用。毕竟,引起观众怀疑的中止是许多娱乐活动的基石。然而,正是这种技术的潜在滥用,尤其是在“深层假货”的名义下,引起了警报。
如果感知是现实,那么当AI可以产生或操纵感知时,现实会发生什么?尽管在人类的许多历史上都存在伪造,伪造和欺骗,但必须手工制造……直到现在。感知AI技术的出现大大减少了产生令人信服的假货所需的工作。如我们所见,Zao应用程序允许非专业用户将自己切换到电影场景中。而且,随着技术的发展,发现假货将变得更加困难。诸如“哪张脸是真实的?”已经表明,大多数人已经无法从真实图像中分辨出AI生成的图像。
合成媒体的易于产生和广泛传播会对公民社会的许多方面产生相当严重的不利影响。可以通过传播深层的虚假视频来操纵选举,从而使某些候选人处于劣势。欺骗语音和视频通话会释放大量新的消费者骗局。通过将人们的肖像插入到妥协(有时是色情)的图片和视频中,可以侵犯个人隐私。
在应对这种基于AI的合成媒体冲击时,我们有哪些选择?首先,人工智能技术本身可以通过利用当前人工智能技术中的已知缺陷来帮助我们检测深层伪造;有些技术可以发现伪造的文本,语音,图像和视频。例如,在图像的情况下,伪造可以通过无法察觉的像素级缺陷或背景不一致来检测;对于大多数伪造发电机而言,很难正确获取背景细节。(以几乎相同的方式,当我们记住早晨的梦时,没有意义的部分通常不是人的脸,而是背景故事。)要检测人的假冒视频,请使用当前的技术重点关注原始说话者的嘴唇运动,语音模式和手势之间的相关性。一旦检测到,