别玩了!色情报复新武器:AI换脸技术及风险分析
继“ZAO”、“蚂蚁呀黑”等软件之后,近日一款名叫FacePlay的换脸软件再度刷屏了抖音和朋友圈,该款软件操作极其简单,只需要上传一张自己的照片,便可以自动生成不同风格的视频,几乎看不出换脸痕迹。在许多网红博主的带头下,姑娘们纷纷生成了自己的古风视频、民族服装视频。
毫无疑问,“只需一张自拍,马上改头换面”的体验具有极大的诱惑力,但AI换脸带给人新鲜感的同时却隐藏着巨大的风险,本文将从换脸技术起源、风险及衍生技术等方面进行介绍。
(一)技术概况
2014年蒙特利尔大学的AI学者 Ian Goodfellow提出的生成对抗网络(Generative Adversarial Networks,GANs),基于这种算法衍生出多种AI技术,其中就包括AI换脸,该技术多在影视制作领域小范围应用,2017年被大众所熟知。
2017年12月,美国Reddit论坛上一个ID叫做“DeepFakes”的网友发布了通过AI换脸技术合成的明星色情片,随后将这种“Deepfake”技术以电脑软件“FakeApp”的形式开源,大范围传播开来。FakeApp是一种基于深度学习的人物图像合成软件,可制作虚假图片、语音和视频。Deepfake,是英文“deep learning”(深度学习)和“fake”(伪造)的混成词,专指基于人工智能的人体图像合成技术,也被称作“人脸交换”技术。
(二)现存技术水平及应用范围
1.现存技术水平
2.应用范围
影视制作、社交应用、商业宣传等。
(三)技术覆盖国家
1.欧美
AI换脸技术最早的应用是在电影制作领域,詹姆士卡梅隆(加拿大)、斯蒂弗斯皮尔伯格(美国)还有皮克斯工作室(美国)等欧美著名导演及工作室创造了复仇者联盟》系列、《速度与激情7》、《霍比特人》、《神奇动物在哪里》等多部经典电影,使得该技术在电影行业得到充分发展和应用。
2.其他
该技术应用于电影业等商业领域已经十分成熟,但通常后期剪辑成本较高,耗费时间长,Deepfake兴起后在美国、欧盟、日韩、中国等国家大范围传播,普通电脑爱好者通过开源编码和教程仅需要数小时即可实现视频换脸功能。
(四)各国政府对该技术态度及各国管控措施
1.美国
美国政府对AI换脸技术或将引起诸多不良影响表示担忧,且疑心该技术可能成为其他敌对国家打击或影响美国的工具。对此出台了相关的管控措施:
(1)美国三大情报部门联合发布《全球威胁评估报告》
2019 年 1 月 20 日,美国三大情报部门——联邦调查局(FBI)、国家安全局(NSA)、中央情报局(CIA)联合发布了《全球威胁评估报告》。其中着重提到了网络攻击逐渐向人工智能转变,或将影响到大选的安全进行。报告指出:敌对势力,或是竞选对手很可能企图使用 Deepfakes 或者其他的相似的机器学习技术来制造虚假图片、视频、音频,来抹黑候选人以及相关人士。
(2)DARPA为研发对应检测软件举办人工智能竞赛
2018年5月,美国国防高级研究计划局(DARPA)设立了“媒体鉴证”(Media Forensics,MediFor)项目,以开发能识别深度伪造视频的工具,现已研发出首款“反AI变脸刑侦检测工具”,专用于检测AI变脸/换脸造假技术,DARPA将继续举办该竞赛,以确保该领域在进一步发展时能够跟上伪造技术。
MediFor项目是DARPA于2015年秋发起的一项工作计划,MediFor项目将创建不同类型的内容和媒体的软件检测分析技术确定其可信度,项目负责人为Matthew Turek博士。目前的媒体取证方法是人工取证,要求分析人员和调查人员进行细致的分析,以确定上下文和出处。MediFor将开发和扩展图像和视频分析,为分析人员提供对信息有效取证的自动化系统,快速确定图像和视频的可信性。且技术未来将用于作战指挥和情报部门。
2.欧盟
欧盟对AI视频换脸技术持担忧态度,担心利用该技术制造的假新闻对社会造成不良影响,对此也做了相关动作。
(1)比利时发布打击虚假新闻的战略
布鲁塞尔发布了一项打击虚假新闻的战略,包括应对Deepfakes的指南。该指南强调公众参与的必要性,这将帮助人们更容易分辨出某条信息的来源,信息是如何产生的,以及信息是否值得信赖。欧盟战略还要求建立一个独立的欧洲事实核查机构,以帮助分析网上内容创建的来源和过程。
3.国际组织
国际组织对Deepfake技术持否认态度,认为该技术会给政府和企业带来负面影响,对此专门发布文章表态,并提出相关建议。
(1)卡内基国际和平基金会针对Deepfakes发布文章
2019年1月28日,卡内基国际和平基金会发布文章《国家如何应对Deepfakes?》,文章指出Deepfakes正在给政府与企业带来破坏性的影响,并以问答的形式全面介绍了Deepfakes的基本概念、发展现状、对全球市场与国际事务的影响以及各国的应对实践和应对建议。
4.其他国家
中国政府、日本政府针对该技术暂无相关表态。
(一)政治风险(制作领导人换脸视频)
1.破坏选举、扰乱外交关系
伪造政治家的公开演讲、制作领导人或候选人的虚假图片、音频或视频迷惑大众,造成负面的社会影响,恶意误导社会舆论、操控大选甚至影响外交关系。
2.煽动政治暴力、引起种族或宗教争端
不法分子可能利用虚假视频或言论操控信仰,在愈趋两极的政治气候下,令社会不同群体之间更难沟通。
(二)军事风险
军事防御系统人脸识别系统可能失效
不法分子通过人脸识别系统入侵军事防御系统,或将导致军事泄露等威胁国家安全的后果。
(三)文化风险
影响营造绿色网络环境
色情、暴力、等多方面虚假视频的大肆传播,对网络环境造成不良影响,甚至影响青少年健康成长。
(四)其他风险
1.金融风险
(1)影响商业及信用体系
利用虚假视频虚报冒领、商业欺诈等犯罪行为,影响整个社会的商业及信用体系。
(2)威胁个人财产安全
可能导致支付、个人隐私相关的人脸识别系统失效,影响个人财产安全
(3)影响股市稳定
不法分子利用虚假视频影响股价,操纵股市。
2.治安风险
(1)扰乱安防系统及影响刑事侦查
犯罪人员有机会利用虚假视频制造不在场证据,扰乱调查。
(2)扰乱社会治安
利用虚假视频进行敲诈勒索,可能严重扰乱社会治安。
(一)涉及该技术的相关事件
1.良性事件
(1)影视行业
①2018年8月,多国科学家联同德国马克斯普朗克计算机科学研究所(Max Planck Institute for Informatics)发布了名为「深度影片肖像」(deep video portraits)的技术,可任意控制他人的面部表情、说话和动作来生成影片。这项技术有助于演员在电影中说外语时加口形和配音,也会令电影后期制作出来的效果更丰富,其团队声称该技术将为影视娱乐工业带来重大变化。
②电影《速度与激情7》里为了让保罗·沃克回归,片方利用AI技术用替身+动态捕捉+CGI动画的方式,以保罗的两位弟弟为替身,最终让观众的老朋友重新回到了大屏幕上。
(2)医疗行业
美国ALS协会(萎缩侧索硬化症协会)组建了一家名为 Lyrebird的企业利用类似于Deepfakes技术的声音克隆,来记录患者的声音,以便在未来可以帮助萎缩侧索硬化症患者进行数字化重建。
2.恶性事件
(1)娱乐行业
盖尔·加朵、艾玛·沃森、娜塔莉·波特曼等女明星的脸频繁地被网友用来制作色情影片,并广泛传播。甚至在百度贴吧中有人发帖称“韩国女团deepfake,要的私聊”,似乎这已经促成了一种新的交易。
(2)政治方面
①有网友将奥巴马、特朗普与希拉里的脸进行互换,并且制作出他们根本没有说过的话,伪造政治家的公开演讲。
②有人制作美国总统特朗普的虚假视频,该视频中特朗普发表了“决定要对中国发射核导弹”的重要演说。这一视频被上传到了SNS。
(二)各国政府官员针对该技术及相关应用的表态
1.美国
美国总统大选佛罗里达州候选人,共和党参议员卢比奥曾将 Deepfake 技术与核武器相提并论。“过去,如果你想威胁美国,那你需要 10 艘航母、核武器,还有洲际导弹。现在,你只需要登录我们的互联网系统、银行系统、电网、基础设施网络,甚至,你只需要具备弄出一段可以以假乱真的虚假视频来搞乱我们的选举就行了。这就足以让我们的国家陷入巨大的内乱,深深削弱我们。”
2018年9月13日,三名国会参议员Adam Schiff、Stephanie Murphy以及Carlos Curbelo向国家情报局局长写公开信呼吁情报机关评估Deepfacks给美国民主带来的威胁,并建议国会和情报机关采取措施应对这一威胁。
(三)国际媒体舆论导向
1.美国
密歇根大学社交媒体责任中心前首席技术专家Aviv Ovadya对deepfake技术表示担心,未来社会将出现“真实冷感”(reality apathy)现象:经常接触虚假资讯会令人视所有事情都是骗局。在大众对大型机构和媒体的信任度下跌之时,Ovadya预期deepfake将令情况恶化。《金融时报》副总编Roula Khalaf同样表示担心,deepfake会令大众将真的报道也当成假的。
“华尔街日报”在内部成立了一个由道德标准组和研发组领导的deepfakes特别工作组。这个被称为“华尔街日报媒体取证委员会”的组织由视频、照片、视觉、研究、平台和新闻编辑部门的人组成,并且他们接受过deepfakes方面的培训,确保从各个方面都有效防范虚假信息的产生。
2.英国
BBC于2018年2月发布名为“Deepfakes色情片会导致严重后果”的新闻报道,内容内提到该技术除虚假色情视频带来的不良影响外,还可能会被恶意用来欺骗政府和人口,或引起国际冲突。
(一)是否存在以该技术为基础的衍生技术
1.人工智能技术(AI)神经网络程序
由美国史丹福大学研究员领导的团队,研发出一款能够在视频中,把脸部表情、头部、说话及眨眼动作,从一个人复制到另一个人脸上,甚至细节处也几乎能以假乱真的技术。
2.英伟达新一代StyleGAN
图像逼真到可怕,能生成世界万物,不仅仅可用于人类,还能用于汽车、猫、风景、房屋等图像的生成。
3. 反AI变脸刑侦检测工具
纽约州立大学奥尔巴尼分校的教授Siwei Lyu和他的学生 Yuezun Li 和 Ming-Ching Chang已经训练人工智通过密切监视眨眼来检测“Deepfake”,基于这项研究,美国国防高级研究计划局(DARPA)研发出首款“反AI变脸刑侦检测工具”,专用于检测AI变脸/换脸造假技术。
(二)该技术及衍生技术的应用
1.图像处理
目前网上流传最广的案例,就是通过GANs来生成全新图像,其在真实度和准确度上甚至超过了人工作业。
2.声音处理
语音合成一直都是初级AI商业化的核心领域。GANs可以在合成和恢复语音素材中提供重大助力。包括用AI合成语音、从大量杂音中恢复某条声轨,甚至模仿一个人的语速、语气和语言心理,都可以应用GANs。
3.文字生成
同样的道理,GANs在文本生成、写稿机器人等领域也由极大应用空间。
4.信息破译与信息安全
既然GANs的目的是使某物不断趋近真实,那么生产出真实的笔记、密码吸管,甚至生物密码也都是可能的。
5.生成个性化产物
GANs的学习方式,是根据一系列数据指标来将样本生成为可被接受的信息。
6.高精度的样本预测
GANs的更大作用,其实还在于通过模糊数据和少量信息,对某种可能性结果进行样本预测。
7.反AI变脸刑侦检测
专用于检测AI变脸/换脸造假技术,识别深度伪造视频。