谷歌AI伦理团队闹剧仍未完结,巨头们所说的“科技向善”还能相信吗?
AI给我们带来绚丽而又方便生活的背后,是对社会造成潜在伤害的阴影。
作者 | 来自镁客星球的毛毛
近期,谷歌AI伦理团队(Ethical AI group)的“连续剧”又有了新料:谷歌下属机构——谷歌大脑(Google Brian)的知名机器学习专家Samy Bengio宣布本月底将从谷歌离职。外界普遍认为,这是他对谷歌此前解雇两名AI伦理研究者的抗议。
在诸多媒体的笔下,该事件正成为一场娱乐大众的闹剧,充满了“气急败坏的巨头公司”、“牺牲自己做出反抗”、“不畏强权的平民英雄”等等观众喜闻乐见的元素。
不过,较少有人注意到这件事背后的一些关键词,例如AI伦理、人工智能、种族歧视、少数群体和算法等等。尽管这些词我们早已经司空见惯,但它们距离现实的生活却显得遥远且无从触及。
格奥尔格曾在诗中写道:“词语破碎处,无物可存在”。想要真正吃好谷歌AI伦理团队的瓜,还得从AI这个词讲起。
AI的三次浪潮:从学界走向业界
AI,即Artificial Intelligence,中文通常翻译为人工智能。在相关科学技术仍在迅猛发展的今天,我们还不能给AI下一个本质性的定义。不过,今天人工智能已经覆盖到了我们生活的方方面面,哪怕是从个人的角度,我们也可以在许多场景中触摸到它的影子。
比如我们手机支付需要用到的指纹和人脸识别,新闻客户端中“千人千面”的信息流、外卖软件中的个性化推荐等等。
不过,从学界到业界,人工智能的诞生与发展并非一帆风顺的连续不断,深入到我们生活中也只不过是最近十几年的事情。这里需要简单回顾一下人工智能发展的三次浪潮,而这也正是构成如今人工智能伦理问题的底层逻辑。
现在普遍认为,“人工智能”这一概念最早出自1956年美国的达特茅斯会议上。
图 | 2006年,五十年后,达特茅斯会议当年的与会者重聚。左起:摩尔,麦卡锡,明斯基,赛弗里奇,所罗门诺夫
1956年的夏天,被后人认为是最早提出人工智能这一概念的约翰·麦卡锡,组织了一场“人工智能夏季研讨会”(Summer Research Project on Artificial Intelligence),会议主要探讨如何让机器模仿人的智能。
但两个月过去,会议最终也没有达成共识。不过,对这一问题的探索以及提出建立人工智能这一学科,也就使1956年成为了人工智能元年。人工智能的三次发展浪潮也就随之而来。
第一次浪潮:20世纪50到60年代,这段时间内科学家们在探索如何让机器具备逻辑推理能力,并且成功研发出第一款感知神经网络软件和聊天软件。
第二次浪潮:20世纪 70 年代中期,这段时间学界提出了Hopfield神经网络和BT训练算法,解决特定领域的专家系统问世并得到广泛应用。
第三次浪潮:进入到2006年,人工智能再次迎来新发展。互联网、云计算、大数据、芯片等新兴技术都为AI产业发展提供充足的数据支持和算力支撑。深度学习大放异彩,算法的应用被普及到许多行业。
最近几年,计算机视觉、自然语言处理、智能芯片、脑机接口等人工智能技术的分支,都获得了不同程度的突破。
不过,随着技术走向尖端,曾经“野蛮生长”的人工智能技术,如果想要百尺竿头更进一步,学界的资源已无法满足。
目前人工智能已经逐渐从学界主导转移向业界主导,商业化的同时也背负上了争议。随着AI走进我们生活的方方面面,这种争议声也就越来越大。
阳光下的阴影:强大的渗透力让AI成了“双刃剑”
人工智能在科学层次的发展带动了相关技术的成熟。随着人工智能多个分支研究的精进,其中较为成熟的技术就逐渐进入到我们的生活当中。随着人工智能的覆盖面越来越广,对个人、企业乃至社会,都正发挥着越来越重要的作用。
伴随人工智能地位的提高,人工智能产业巨大的经济潜力也慢慢浮现出来。据统计,仅2020年,全球人工智能产业规模就达1565亿美元,同比增长率是12%,中国人工智能产业规模大约3100亿元人民币,同比增长15%。另有统计称,全球人工智能产业未来的趋势仍是稳步向上。
巨大的利益背后,自然少不了科技巨头们的身影。之前说过,限于研发资源的门槛,目前人工智能的发展已经逐渐从学界主导走向了业界主导。目前像IBM、谷歌、亚马逊、微软和Facebook等巨头,是少数拥有足够资源投入对人工智能进行开发的公司。
但这些公司对人工智能的研发投入并非出于对科学的追求,而是希望技术革新能够给公司带来丰厚的回报。这本无可厚非,不过人工智能的特殊之处就在于,当公司因其而获益时,有可能是以伤害社会为代价。
例如作为人工智能重要分支之一的人脸识别,就曾被指存在“种族偏见”而在多个国家引起过争议。据外媒表示,目前像美国各地警方以及FBI等执法部门存在高度依赖人脸识别技术来协助犯罪调查的现象,但出现了多起涉及有色人种的误判,引起了广泛的批评甚至是抵制。
美国波士顿市,就在去年6月通过了《波士顿禁止人脸监控技术条例》来抵制人脸识别在该市的应用。法案中称,“人脸识别技术在识别非裔和亚裔群体时准确率更低。人脸识别监控中的种族偏见有可能伤害有色人种群体。”
这种批评和抵制并不是对技术的偏见。事实上,巨头们的技术目前还没有那么完善,对有色人种的误判的确存在,而这有可能助推社会的撕裂。
回到谷歌AI伦理团队的系列闹剧中,首个被谷歌解雇的Timnit Gebru,就曾因揭露面部识别系统中的种族和性别偏差而闻名。而本次害她丢掉工作的导火索,是她的邮件内容中涉及了对谷歌AI伦理现存问题的不满。这不禁让我们沉思,AI伦理问题是巨头们的“逆鳞”吗?
巨头口中的“科技向善”,真能实现吗?
实际上,为了消除外界的质疑,巨头们也做出了很多努力。像2014年谷歌收购人工智能公司DeepMind时,就要求后者成立伦理和安全委员会,来监督公司的AI研发方向。微软在2018年也成立了人工智能伦理道德委员会AETHER,意图来规范公司在人工智能方向的业务。
2016年时,亚马逊,微软,谷歌,IBM和Facebook还联合成立了一家非营利性的人工智能合作组织(Partnership on AI),推进AI研究的同时也希望针对伦理挑战能做出解决方案。后面,苹果、百度、英特尔、Salesforce、eBay、索尼、SAP、麦肯锡、Zalando和Cogitai等企业也纷纷加入该组织。
但问题是,目前人工智能的问题涉及的非常广泛。除了偏见歧视,像人工智能作恶(如机器人在战争中的潜在应用)、责任归属(如无人车交通意外)、过度依赖(如算法造成的“信息茧房”现象)和技术鸿沟(如本次疫情中部分老年人对“健康码”等要求的手足无措),都是AI给我们带来绚丽而又方便生活背后的阴影。那么,企业自身对AI的伦理研究与问题管控,真的可行吗?
本次谷歌AI团队的风波,就把现实更真实地摆在了每个人面前:无论像谷歌等巨头公司的承诺多么真诚,被企业所资助的研究,可能永远无法逃离资本的权力边界。