“深度造假”与国家安全

2021年5月7日,美国会研究服务处发布更新版《“深度造假”与国家安全》报告,介绍了“深度造假”的技术原理、恶意使用、识别检测等情况,分析了国会为应对“深度造假”威胁应考虑的因素和潜在问题。报告指出,“深度造假”技术日益精进,且技术门槛逐渐降低,即使非专业人员也可通过下载软件工具、利用开源数据等手段进行造假,对国家安全产生一定影响。

一、“深度造假”技术往往被恶意使用或借以逃避责任

“深度造假”通常指利用机器学习技术,尤其是“生成对抗网络”(GAN)技术制作的虚假内容。GAN包括两个在训练中相互对抗的神经网络:一是生成器网络,负责创建伪造数据(如照片、录音或视频),二是鉴别器网络,负责识别伪造的数据。根据每次训练结果,生成器网络会进行调整,以创建更具欺骗性的数据。这两个网络持续竞争,经过数千或数百万次的迭代,直至生成器性能提升,使鉴别器无法区分真实数据和伪造数据。

“深度造假”技术可用于医疗、娱乐等合法用途,但也可能被恶意使用。例如,敌对国家或不法分子可能发布包含公众人物煽动性言论或不当行为的虚假视频,以操控舆论、干扰选举,或用于胁迫、敲诈涉密人员。此外,该技术还具有“骗子红利”效应,即:实际做出不当言行之人可谎称他人利用“深度造假”技术诬陷自己,从而否认自身的不当言行,以逃避责任。

二、“深度造假”技术将随着识别检测手段的发展不断升级

为有效应对“深度造假”技术的日益精进,美国防高级研究计划局(DARPA)启动“媒体取证”和“语义取证”项目,旨在识别和检测利用“深度造假”技术制作的各种产品,提高美军在信息战中的防御能力。“媒体取证”项目旨在开发能自动分析照片或视频完整性的算法,识别其中视听上的不一致情况(如像素不一致、与物理规律不一致、与其他信息源不一致等),并将能证明虚假内容如何生成的相关证据信息,提供给分析人员。“语义取证”项目旨在以“媒体取证”技术为支撑,开发能自动检测、定性和表征各种类型“深度造假”内容的算法,对语义上的不一致进行分类,并将可疑的“深度造假”内容进行排序,以供人工检查。 基于算法的检测工具问世后,“深度造假”技术可能也会相应地升级,能够修复被检测工具发现的缺陷。

三、美国会在应对“深度造假”威胁方面应考虑7个问题

一是国防部、国务院和情报部门是否充分掌握相关国家“深度造假”技术发展情况,以及其用于危害美国家安全的具体方式。
二是DARPA开发的“深度造假”自动检测工具成熟度如何,有哪些局限。
三是联邦政府对“深度造假”自动检测工具的投资和协调能否满足研发需要。
四是如何在“打击深度造假”与“保护言论自由”之间找到平衡。
五是是否制定政策,要求社交媒体平台对内容进行认证或标记,并要求用户提交内容来源,这将对平台和用户的安全、保障及隐私产生什么影响。
六是社交媒体平台和用户应在多大程度上、以何种方式对虚假内容的传播及影响负责,如何确定对恶意造假者的惩罚力度。
七是如何向大众普及“深度造假”相关知识。
(0)

相关推荐