最近小雷闷得慌,又跑去Github翻程序员大佬们的作品和源码了。网页滑了10分种,翻是翻到好东西了,但小雷对「眼见为实」这个词儿又产生了怀疑......不用着急问小雷为什么,先瞅一眼下面的图,这是小雷从一个AI项目扒出来的。
看起来只是两张一模一样的风景图,平平无奇,毫无研究价值。
但是如果大家拿出列文虎克般的眼睛去观察,还是能发现些端倪。你会发现第一张图片是正常的,而第二张图片多了很多小点点,像是一个不规律排列的点阵。在我们眼里,第二张图除了多了一些奇怪的小点,其余和第一张图无异。
但是把第二张图片缩放后,奇怪的事情发生了,一张平平无奇的风景照变成了一个哈士奇......
PS:这里的缩放不是单纯的放大缩小,而是把图片分辨率压缩了。
一张是风景图,一张是呆萌的哈士奇,小雷说句毫无关联也不过分啊,我看这项目开发者是把小雷当哈士奇了......
但小雷又花时间研究了一会后,眉头一皱,发现事情并不简单。这是一项名为「图像缩放攻击」的技术,跟人工智能与机器学习有关。这个技术其实是利用图片缩放的漏洞实现的,可以让图像缩放到特定大小时,改变原有的外观。上面风景图变成哈士奇用得就是这个能让图片“七十二变”的技术啦。
至于怎么做到的嘛,虽然小雷看开发者的解释也看得云里雾里的,但基本思路算是理清楚了。
这项技术的基本思路是将一些分辨率较低的图片隐藏在分辨率较大的图片中,大图分辨率大概是小图的5-10倍左右。当这些图片经过AI审查或处理时,由于AI有自己的一套数据算法,一般都会把原图压缩成比较低的分辨率,再进行处理。
比如这种风景图,原图是1200*1250分辨率,通过OpenCV压缩后变成120*125分辨率。
当AI把图片压缩后,看到的图片就不是风景图了,而是一只会拆家的哈士奇......
小雷想要把一张茶杯照片伪装成一张猫图,骗过人眼和AI。原图通过「图像缩放攻击」处理后,肉眼看上去依然是那个茶杯,但在AI眼里,这已经是一张猫图了。至于「图像缩放攻击」把目标图片放进源图片的详细过程,小雷就不展开聊啦。
因为小雷看了半天官方提供的论文也没看懂,书到用时方恨少啊......
反正只需要修改一小部分权重较高的像素就能做到欺骗AI,还是挺强大的。这种欺骗AI的技术有点像心理博弈,开发者知道AI处理图像时必会先压缩图像,所以就提前在大图中插入小图。接下来坐等AI踩坑,成功骗过AI,实现人生目标,走向幸福人生......千万别这么想哈,骗过AI的后果和危害远比我们想象的严重。通过「图像缩放攻击」欺骗AI,可不是一件值得高兴的事儿。举个最常见的例子叭,在AI出现前,对于搜索引擎出现的黄暴污图片或视频,全靠人工审核过滤。审核小哥每天都得高强度审核那种看了让人心理不适的内容,身心疲惫。自从有了AI审核,不仅解放了大部分人力,识别率和效率也高得很,解决了不少黄暴污图片视频泛滥的问题。但现在「图像缩放攻击」的出现,就像是一个灭霸站在AI审核面前。但经过「图像缩放攻击」处理后,AI会把黄图先压缩,压缩后的图像变成一个哈士奇,导致无法过滤......再拿自动驾驶这方面来说,自动驾驶AI又不是天生就能识别各种路标,而是经过大量道路和路标图像训练学习而来的。如果有人用这个技术,恶意把「停车」路标修改,AI把「停车」路标误认为「可通行」,会发生啥后果......
轻则交警到场,联系保险赔偿;重则出人命,毁掉一个家庭。
这项技术让小雷想起以前贴吧也有一种图片玩法,幻影坦克。缩略图是一张正常的图片,但打开查看原图后,居然是另一张图。过分一点的网友,直接在帖子中放一张伪装过的黄图,当你在人多的地方一打开,直接社会性死亡......现代网友的PS技术已经到了炉火纯青的地步,P图毫无违和感。所以还用“眼见为实”来看待图片或视频早就不现实啦。
不过以上这些玩法大部分适用于娱乐或美化,而「图像缩放攻击」的危害就大得离谱了,甚至关乎人命。
当然啦,这项技术并不是没有对付的方法,论文提到的中值过滤器法对「图像缩放攻击」有很好的防御作用。AI都是科技发展很重要的一部分,但这玩意同样是个双刃剑。无论如何,监管还是要到位,要是以后出现更夸张的图片攻击技术,导致全网都是黄图的场面,实在不敢想......