人脸识别技术无孔不入,我们的安全和隐私如何自保?

特约撰稿丨戴晋
全文共 2939 字,阅读大约需要 6分钟

我们先来看一组照片。

Fawkes修改后的英国女王前后对比图

你能看出这两张照片的区别吗?如果你觉得有区别或者没有区别,其实都没错。实际上,右图经一款名叫Fawkes的软件微调后,已经有了本质区别,据说调后的图像能对抗任何人脸识别算法,但肉眼无法察觉。

2020年初, Clearview AI非法抓取Twitter、Facebook 、YouTube等社交媒体上的人脸照片,创建了一个超 30 亿张照片的面部识别数据库,并通过出售算法牟利。新闻曝出后,引发巨大争议。

其实,不管在国内还是国外,Clearview AI的做法都不足为奇,属于常见操作。公司通过收集网络上的公开照片建立起人脸数据库,用来改进他们的面部识别系统。

这意味着,你发的任何一张自拍都有可能被扒下来当“小白鼠”,用以训练机器学习模型。并且,通过自拍,面部识别技术能知道用户对应的姓名、联系方式、家庭住址等信息。

为解决上述痛点,芝加哥大学Sand Lab团队提供了新的解决思路——给自拍穿“隐身衣”,研发一款名为Fawkes的软件来对抗面部识别算法。

软件命名是对盖伊·福克斯面具(Guy Fawkes Mask )的致敬,该面具形象是英国插图画家大卫·劳埃德(David Lloyd)以16世纪英国阴谋家盖伊·福克斯的脸为原型而创造,最早出现在漫画《V 字仇杀队》中。

01 ////

 给自拍穿上“隐身衣”

8月12日 -14日,信息安全领域四大顶级学术会议之一的USENIX安全研讨会上,关于Fawkes的技术论文《Fawkes: 保护隐私免受未经授权的深度学习模型的侵害》(Fawkes: Protecting Privacy against Unauthorized Deep Learning Models)正式发表。

从论文中可以得知,对抗学习是Fawkes 使用的主要技术,即在图片上加一些很小的“噪音”——对于深度神经网络而言,一些带有特定标签的微小扰动,就能够改变模型的“认知”。

Fawkes 增加噪音的方法,是微调图片像素,比如把照片上眼睛部位的像素调低一些,至于调整多少,需要依据算法计算;通过修改计算出来的一小部分像素,从而达到改变模型的效果。

Fawkes算法是整个系统的关键。研究人员利用特征提取器Φ和目标图像T,对原始图像进行伪装处理,这些目标图像均来自可公开获得的数据集(均大于500K)。

Fawkes 用登普西先生的脸遮盖了帕特洛女士的照片,以便使用这些图像的系统开始将她与登普西脸部的某些特征相关联

选择一个目标 T 后,随机选取一幅 T 中的图像,计算出“隐身衣”δ ,按照公式进行优化。最后计算出每张图像的“隐身衣”。

Fawkes 增加的“噪音”对人眼视觉的影响很小,但是对机器模型的影响很大。通过对人脸图像进行像素级的细微更改,肉眼看起来和原图一模一样,但人脸识别系统却能识别这种细微差别,无法将修正后的照片和真人联系起来。

“隐身衣”图片生成后,你就可以分享到自己的社交平台上,再也不用担心照片被抓取或者非法使用了——不过还得注意提醒自己的朋友,不要分享你未经处理的照片。

上个月,Fawkes已经完全对外开放,任何人都可以下载和使用。据《纽约时报》报道,目前该软件已被下载超过5万次。现在,研究人员正在研发免费的应用程序版本,他们希望尽快在市面上推出并广泛使用,以降低个人隐私泄露的风险。

当然,Fawkes的目标不仅限于此,这将是对面部识别技术的一次集体反抗,“我们的目标是让Clearview消失”,芝加哥大学计算机科学教授赵燕斌接受《纽约时报》采访时说。

理想情况下,人们会开始上传Fawkes处理过的人脸图像,这意味着Clearview这类公司将无法创建一个正常运行的数据库,因为经过Fawkes处理过的照片在现实生活中不存在。

02////

 “为时已晚”?

加州大学戴维斯分校的法学教授伊丽莎白·乔(Elizabeth Joh)将Fawkes之类的工具称为“隐私抗议”,人们开发这些工具是希望阻止被监视而非出于犯罪意图。

伊丽莎白·乔说,人们感到自己丝毫没有隐私可言,传统的隐私意识在现实生活和网络中被利用的方式太多了。随着新的监测技术的引入,她反复看到了她提及的“疲惫监视”(tired rubric)的现象,然后是反监视和对抗监视——我们被监视的同时也利用监视技术进行反监视。

《V字仇杀队》电影截图

Clearview AI 的首席执行官胡安东那( Hoan Ton-That )使用了Fawkes实验版本,他表示并不会对他的系统造成干扰。“互联网上有数十亿张未经修改的照片,它们都使用不同的域名”,安东那(Ton-That )说,“实际上,完善 Fawkes 之类的技术并大规模部署它几乎可以说为时已晚”。

其他专家也对Fawkes的技术表示怀疑。约瑟夫·阿蒂克(Joseph Atick)说,“对自己创建的监控社会感到遗憾”。这位人脸识别领域的先驱感概,“我们已经提供了大量图像。”Fawkes无法对使用未更改图像构建的模型进行任何处理,例如,Clearview AI 等公司和执法机构已经拥有的图像。

阿蒂克表示,他鼓励这种类型的研究,但觉得解决不了实际问题。

“只有通过立法,才能保障人们的生物识别数据权益”,阿蒂克称,“ 最近(美国)有民主党参议员提议:禁止政府使用面部识别。”

“我个人认为,无论你使用哪种方法,其实都会失败,”艾米丽·温格(Emily Wenger)说。这位Fawkes的联合创始人表示,“你可以用这些技术作为解决方案,但这是会是一个猫捉老鼠的游戏。你也可以借助法律,但总会有违法的人。”

温格对《纽约时报》的记者说,“两种解决方法并不冲突,个人技术工具和隐私法都可以用来保护自己的权益。”

参考资料:https://github.com/Shawn-Shan/fawkes/tree/master/fawkes

http://people.cs.uchicago.edu/~ravenben/publications/pdf/fawkes-usenix20.pdf

https://www.nytimes.com/2020/08/03/technology/fawkes-tool-protects-photos-from-facial-recognition.html

https://www.theverge.com/2020/8/4/21353810/facial-recognition-block-ai-selfie-cloaking-fawkes?scrolla=5eb6d68b7fedc32c19ef33b4

https://www.theregister.com/2020/07/22/defeat_facial_recognition/

全现在原创稿件。
(0)

相关推荐