恐怖如斯,如果Siri学会了骗人
Yee君说——
Siri可以进化到什么地步?她会比我最好的伙伴还会安慰我,还懂我吗?获得这份欣喜的同时,你或许需要多一份担忧,因为人工智能在机器神经系统的帮助下成长得飞快,以后客服电话可能都是和一些在线机器人进行对话的过程,最有趣的是,你会以为对面是个甜美耐心的美女。
无论是出于好的还是坏的目的,人类一直试图通过提高科技水平来欺骗自己(的能力有多强)。
在2016年美国总统大选前的一个夏天,位于巴尔的摩的风险管控公司ZeroFOX的两位研究员约翰·西摩(John Seymour)和菲利普·塔利(Philip Tully)公布了他们新发现的一种Twitter机器人。通过分析社交网络上的活动模式,这种机器人学会了如何诱导用户点击Twitter上推送的链接,而这些链接可能会转到一些潜在的危险网站。
这款名为SNAP_R的机器人其实是一种自动“钓鱼”系统,能够通过跟踪和手机个人的爱好而发出一些令人好奇的链接和标题,从而诱导他们在不经意间将间谍软件下载到自己的电脑上。例如:考古学家声称他们在美国首次发现了亚历山大大帝的坟墓。这就是机器人在推特上对一名毫不知情的用户发出的推送内容之一。
尽管这句话有一些奇怪的语法错误,SNAP_R还是成功地让66%的被推送账户点击了它制造的链接,它的成功率与那些手工制作钓鱼信息的黑客已经不相上下。
机器人是没有危险的,但它的存在证明了一个理念。随着大选的临近,人们对政治黑客、假新闻和社交网络黑暗面的担忧日益高涨,这也说明了为什么网络造假的前景只会更加黯淡。
这两位研究人员建立了所谓的机器神经网络,这是一个复杂的数学系统,可以通过让机器人分析大量数据来学习自己要执行的任务。
机器神经网络可以从成千上万张狗狗的照片中收集相关特征,从而让自己可以在下次识别出这种生物,它还可以通过筛选大量的通话录音来识别不同的语言和口语。
正如两位研究人员所展示的,神经网络系统可以通过检测tweet、Reddit上的帖子和大量的网络用语来学习编写钓鱼信息。
今天,同样的数字技术正在为机器注入从语音识别到语言翻译等各种各样的类人能力。在很多情况下,这种新型的人工智能也被用作一种互联网上欺骗网友的理想手段。这样一来,大规模的网络操作将变得简单得多。
剑桥大学(University of Cambridge)风险研究中心的研究员沙哈尔·阿文将现在该类技术的发展都归结到了这个方向。
许多技术观察人士对人工智能的崛起表示担忧。人工智能会制造出一些高质量的造假物品——比如一些看起来像真品的假画。一开始是机器可以将任何人的头P到色情明星的肩膀上,现在已经演变成一种工具,可以无缝地把任何图像或音频剪辑到相应的视频中。
今年4月,美国新闻聚合网站BuzzFeed和喜剧演员乔丹·皮尔(Jordan Peele)发布了一段视频,视频中奥巴马说了一些话,其中一句是“我们需要对我们从互联网上获取的信息更加警惕”。
随着研究人员开发出能够自我代谢并从越来越多的数据中学习的系统,这种威胁只会扩大而不会减少。神经网络系统可以产生高信任度的声音和图像。这就是为什么像苹果Siri这样的数字助理听起来一年比一年更加人性化的原因。
谷歌创造了一种叫做“双工”的系统,它可以自己给当地餐馆打电话、预订房间,还可以骗过电话另一端的人,让他以为打电话的人就是一个真实的人。这项服务预计将在年底前将普及到智能手机上。
专家们早就有能力对音频和视频是否被修改过进行检测。但随着这些人工智能系统的进步,任何人都能更容易、用更低成本去生成看起来和听起来都像反映真实事物的数字内容——比如图像、视频、社交互动。
受到学术界的启发,顶尖的人工智能实验室,甚至像谷歌这样的大型上市公司,都公开发表了它们的研究成果,在很多情况下还公开了它们的软件代码。
有了这些技术,机器们也可以学习并提高自己的读写能力了。多年来,专家们一直质疑机器神经网络能否破解自然语言的密码,但在最近几个月,这种趋势发生了转变。
谷歌和位于旧金山的独立实验室OpenAI等多家机构,在将这些知识应用于特定任务之前,提前建立了相匹配的系统,让人工智能可以在最广泛的范围内领略语言的博大精深——从维基百科的文章到自行出版的言情小说都被包含在内。这个系统可以阅读一段文字并回答人类的相关问题,他们甚至可以判断电影评论是积极的还是消极的反应。
这项技术可以用于改进像SNAP_R这样的钓鱼机器人。今天,大多数Twitter上的机器人还是非常机械化,尤其是当你开始回复它们的时候。但在将来,他们可能也会怼上你几句。
这项技术还可能创造出语音机器人,可以与人类进行系统的对话——毫无疑问总有一天,一些机器人会打电话给你并骗取你的信用卡信息。这些新的语言系统是由新的计算能力芯片驱动的。谷歌的工程师专门为训练机器神经网络而设计了相应的计算机芯片。其他公司也在生产类似的芯片,随着这些芯片的问世,它们将进一步加速人工智能的研究。
OpenAI的政策主管杰克·克拉克(Jack Clark)预言说,在不远的将来,各国政府将创建机器学习系统,用来让其他国家的民众变得激进,或者将一些政治观点强加于本国民众。
“这是一种新的社会控制或宣传。”他说。“政府可以开始发起针对个人的运动,但与此同时为了更大的目标,许多人可以同时参与进来。”
理想情况下,人工智能还可以提供识别和阻止这种大规模政治操纵的方法。马克·扎克伯格喜欢谈论事物的可能性,但在可预见的未来里,我们将面临一场机器学习的军备竞赛。
也许阻止错误信息传播的唯一方法就是以某种方式教育人们以极度不信任的态度看待他们在网上看到的东西,但这可能也是最难解决的问题。
“我们可以开发出相关的软件来修补我们的电脑系统。” 沙哈尔.阿文说。“但我们不能在人们的大脑中安装补丁。”
作者:Cade Metz