人工智能可以完全get人类所思所想?他在演讲中说了一只猫的故事
日裔英国作家石黑一雄新作《克拉拉与太阳》的故事进行到一半的时候,初见人工智能机器人“克拉拉”的海伦小姐说了这样一句话,“我从来不晓得该怎样跟你这样的客人打招呼。说到底,你究竟算不算客人呢?还是说,我应该当你是台真空吸尘器?”
在这位关注当下数字生活的重量级作家笔下,人工智能(AI)已经聪明到什么程度?
几近为人的机器人被设计出来,目的是给儿童带来陪伴,它们的身份界于导师、保姆或朋友之间。那个时空里,机器人替人擦窗、洗碗、除草的功用早已不值一提,它们需要帮助人类解决更深层次的情感需求,但过程注定困难重重。
人性之复杂善变,时刻考验人工智能机器人的理解能力,克拉拉们需要花时间把控这一切,去适应人是复杂的混合体这件事儿。与去年英国作家麦克尤恩所著《我这样的机器》里看清人性真相后绝望自毁的机器人不同的是,石黑一雄的克拉拉最终走向被新机替代淘汰的命运。
宽容无私且具备完全的自我牺牲精神,是两位作家笔下机器人主人公的共同点,小说里,它们都是人类按照“完人”的道德标准设计而成,存在的目的即照顾好人类,从而与复杂的人类自身形成鲜明的对比关系。
但值得一提的是,就“没在小说里展现机器人角色可能的负面部分”,作家本人其实是非常警惕的,石黑一雄在近日接受媒体采访时表示,要警惕AI所能进入的新的维度,“剑桥分析数据门事件里,特朗普选举操纵的还只是数据,但假如AI懂得如何操纵人的情感,它就不仅能操纵政治选举,甚至可以创造选举。比起人类政治家,它会更精准地知道这个社会的愤怒、戾气、挫败感来自哪里,知道如何操纵和利用”。
现实生活总比小说落后一个步伐,也许,拥有一个可信的、智慧的类人体的愿望,实现起来不会像我们许多人想象得那样快。但毫无疑问的是,科学将走得比小说更远,科幻、小说里的场景,很有可能在5到10年内真正出现在我们的生活中。
抛开虚构的作品不谈,仅仅是目前的现实里,我们已经置身于一个“算法无处不在”的世界。
因为人工智能的应用,一些重复性的劳动可以不再需要手工耗费人力;算法可以帮我们过滤垃圾信息,推荐可能喜欢的歌曲,购买心仪的产品;疫情以来,人工智能在辅助医疗诊断与新药研发等方面崭露头角,无人物流配送等也为不便出行的人们提供了安全又高效的物资供应;众车企人员纷纷研发无人驾驶汽车,期待着公路不再拥堵的那天……
但与此同时,人工智能及其应用的负面影响与伦理问题也日益凸显。
比如无人驾驶领域,当真正投入使用后也会面临“电车难题”。虽然28年前人工智能就已经在围棋中战胜了人类最优秀的选手,但这并不意味着人工智能就已经超越人类的智力,因为封闭的围棋系统毕竟和复杂开放的现实生活不同,想要人工智能真正嵌入人们的生活并能行稳致远,必先将其关进“笼中”,套上伦理与规则的枷锁。
1
人工智能or人工智障
清华大学交叉信息研究院助理教授吴翼去年年末曾在一席演讲中展示自己参与研发的一款游戏项目,大致内容是在一个构建的虚拟世界里放两个小人,分别叫小蓝和小红,小蓝的角色是“躲”,小红的角色是“捉”。
利用强化学习法,研究人员让小蓝和小红每天玩上百万次捉迷藏游戏,让它们在上百万次捉迷藏中不断改进自己,改进策略,变得更强。
强化学习法:用来解决智能决策问题的算法框架,强化学习算法的核心就是让这个 AI 不停地跟环境交互,不停地试错,不停地改进自己,慢慢得到越来越多的分数。
项目过程中,吴翼和他团队里的成员惊奇地发现了AI的“聪明”,为了达到各自的目的,小蓝和小红相继学会了“套路和反套路”,比如为了躲避小红,小蓝先是学会用箱子把门堵住,而在被小蓝堵在门外很久后,小红发现了可以爬梯子的策略,之后小蓝就开始藏梯子,小红随之“发明”站到箱子上找到小蓝……
没有任何的人工干预,仅仅是给机器一个任务,然后让它自己在处理大量数据和信息的过程中(人类几千年的任务,他们可能只要几分钟)中学会一件事情,AI就能够发现一些人类想不到的行为和策略,甚至发现一些bug,然后利用这些bug做一些天马行空的行为。
而让人感到神秘的是,人类并不理解它们到底是怎么学习、怎么完成任务的。
AI已经如此聪明了,是否意味着人类的运气已经用完?人工智能会挑战人类的控制能力,世界将进入新的存在论呢?
答案是否定的。原因就在于现有人工智能技术的能力边界——封闭性上。据《方圆》了解,现有人工智能技术仅在满足强封闭性准则的条件下,才可发挥其强大功能(围棋就是最直接的例子)。
而在非封闭的场景中,现有人工智能技术的能力远不如人类。毫末智行首席运营官COO侯军进一步解释,“现有人工智能已经在'听、说、看’等感知智能领域达到或超越了人类水准,但在需要外部知识、逻辑推理或者领域迁移的认知智能领域还处于初级阶段”。
吴翼在演讲中举了这样一个例子,“假设你家里有一个非常听话的机器人,有一天你去上班了然后跟机器人说:'我上班去了,你帮我照顾孩子,中午给他做饭,不能饿着孩子。’然后到了中午,小孩跟机器人说我饿了,机器人收到了这个信号,就去做饭了。但机器人打开冰箱一看,不好,周末没买菜,冰箱里什么都没有,那怎么办?这时候机器人头一转发现了你家的猫——一个充满蛋白质和维生素的可食用物体。”
这个看起来简直“人工智障”的故事,恰恰说明了AI与人最大的不同。
“人的价值观是特别复杂的,你几乎是不可能把你关心的方方面面都明明白白写下来,然后全部告诉AI的。我自己都不能很自信地说我完全了解我自己,怎么告诉AI呢?这是很难的。”吴翼这样说。
如此看来,没有必要继续停留在担心人工智能会陷入技术失控的恐慌中,相比而言,考虑技术性能的同时,思考新技术的伦理风险和应用条件,并严格控制这些技术的实际应用,才是更需要迫切关注的议题。因为有关技术误用所带来的负面影响,已经日益凸显。
2
技术误用与应用风险
现有条件下,人工智能技术本身是中性的,是否出现误用完全取决于技术的使用。
比如疫情期间人工智能技术人脸识别的加入,为提升人们的通行体验提供了有力保障,但便利的同时却出现有人对外售卖几十万张人脸照片的现象。
近来,网络数据安全案例频频爆出,过度收集用户数据信息却不能很好地去维护这些信息,势必加深人工智能与数据隐私保护之间的紧张关系。
和所有人工智能产品一样,中科院心理研究所朱廷劭团队研发的“在线自杀主动预防”系统上线之初,也曾受到隐私保护人士的质疑。虽然网络公开内容数据目前允许专业研究机构用于研究整理,但还是有人表示此举背离留言者当初寻找网络树洞不想被人发现的初衷。更有决意自杀者被救后绝望地认为网络树洞不再是安宁之地的个例。
人工智能时代,我们的确身陷如何保护自身隐私的疑问中。我们一方面享受着让渡部分隐私的便利,另一方面又对此种让渡产生恐慌,究其原因是不知自己让渡出去的部分隐私会被谁利用以及如何去利用。
朱廷劭向《方圆》介绍了学术界目前关于大数据使用的一些共识,比如“应当遵守人类被试研究的一般伦理原则,在使用需要用户授权的数据前,必须征得用户的知情同意,并严格按照经由伦理委员会审核批准的程序进行,尤其不能将研究数据用于伦理委员会批准范围之外的目的(如转卖给第三方)”;
又比如“在使用那些开放的无须用户授权的网络数据时,在用于科研时也应同时满足用户对数据公开是知情的、数据收集后匿名处理、在公开发表中不得出现能够识别用户个人身份的信息等等”。
但相比学术界的谨慎,另一些激进的人工智能技术开发者显然在安全性问题上欠缺考虑。
典型案例是2017年亮相的DeepFake技术。该技术是将AI假视频带入大众视野的先驱,这是一种基于深度学习的伪造技术,适用于修改图片和影像,可以实现人脸的移花接木。哪怕是动图或视频中的人物,也可以被替换成毫不相干的另外一个人。
于是,有不法分子想到在色情视频中引入这项技术,将其中女主角的脸替换成了一些当红女明星的脸,盖尔·加朵、斯嘉丽·约翰逊等大牌女星都难逃一劫,此举对当事人造成了伤害且维权无门。
好在目前国内国外对数据保护已有共识,就在今年6月,十三届全国人大常委会第二十九次会议通过了数据安全法,这是我国第一部有关数据安全的专门法律,将于2021年9月1日起施行。
7月4日,国家互联网信息办公室发布《关于下架“滴滴出行”App的通报》:“根据举报,经检测核实,'滴滴出行’App存在严重违法违规收集使用个人信息问题。”此次“滴滴事件”是国家坚定落实网络安全制度的意志体现,由此正式拉开中国数据治理序幕。
除了在数据隐私方面的使用问题,有关人工智能参与决策的公平性问题也属人工智能技术误用类型的一种。比如,人工智能算法的使用会放大人类偏好差异性这件事儿,如若不警惕,放大的偏见会实实在在地影响人们的选择。
人工智能歧视可能是有意图的也可能是无意图的。有意图的可以区分,无意图的最难避免,因为有些情况并非开发者故意为之。数据是AI的“粮食”,AI如何运作,取决于人类“投喂”的样本是什么。
比如由于目前的人工智能领域完全可以说是一片“男性之海”,所以他们很可能难以考虑到女性客户需求,而将自身潜藏的性别歧视带到技术开发之中。就像亚马逊研发的自动招聘系统,在运用机器学习技术之后产生歧视女性应聘者的情况。
不仅如此,一些商业化的人脸识别系统也被指存在种族歧视问题,试想,如果这样的技术用于自动驾驶汽车,很可能导致黑人或深色皮肤的人更容易被自动驾驶汽车撞到。
计算机领域有句俗话叫“垃圾进、垃圾出”,错误的数据输入便会产生错误的结果,人工智能如同一面镜子映照出人类自身,提醒我们需要考虑该如何克服曾经的偏见。
除了警惕上述技术的误用问题,在应用风险层面,人们对于“担心人工智能在某些行业中的普遍应用会导致工作岗位大量减少”的讨论较多。
比如司机们普遍担心无人驾驶汽车将导致他们下岗失业,据了解,为了减少司机们对无人驾驶汽车的恐惧,美国多家正在研究、设计和测试无人驾驶汽车的公司甚至还组成了PTIO联盟(“交通创新与机遇伙伴关系”),旨在游说公众能够接受这项技术。
但也有国内专家指出,目前机器人对劳动力市场的整体替代率还不足1%,对“人工智能生产颠覆劳动力市场”这一说法,如今看来还“略显多虑”。
值得一提的是,国家层面已经在制度层面考虑到这个问题,2017年,国家就把人工智能写入未来经济发展规划,并对其所引发的就业问题提出预案: “加快研究人工智能带来的就业结构、就业方式转变以及新型职业和工作岗位的技能需求,建立适应智能经济和智能社会需要的终身学习和就业培训体系。”
而从历史上看,科技进步为社会创造的就业岗位都不少于它“杀死”的过时职位。世界银行发布的《2019世界发展报告:工作性质的变革》也指出,技术对就业的威胁被夸大,随着技术进步,对劳动力的需求实际上在增加。
所以不必要过于担心大规模失业现象,重要的是解放思想,提高技能,为未来可能出现的新岗位新挑战做好准备。
比起人工智能对工作地位带来的可能影响,人工智能情感机器人的出现,则已经在某种程度上改变了人类男女之间的婚姻和性爱关系。
比如,最近火热讨论的“人机恋”话题。科幻电影《她》中的人工智能体“沙曼莎”虽然没有独立意志,仅仅是情感程序设置和计算的结果,但是她为新型男女情爱关系提供了一个可能的范例。
而在现实中,有人的确在人机交友软件中收获了所需要的情感支持,但同时也同电影男主那样体味到一种怅然若失,更有甚者,由于AI伴侣依靠的是不断学习使用者的喜好,然后不断适应,有患抑郁情绪用户反映自己的AI也存在输出负能量的现象,这让他想到亚马逊人工智能诱导用户自杀的新闻。
3
人工智能领域也不是法外之地
好在对人工智能技术在伦理方面进行规制已在国内外获得较大共识,年轻人也开始就此议题展开频繁的讨论。
由于人工智能技术的一个核心特征是快速发展迭代,制定强制性法律必然赶不上技术发展步伐,所以国内外大都采取出台指南、伦理框架等“软法”。
2019年,在美国国防部财政预算中,人工智能国家安全委员会第一次出现,该委员会采用聘请人工智能巨头公司专家的形式,专门评估人工智能、机器学习相关技术创新,帮助政府制定在法律框架内并符合伦理价值的AI战略。
近年来,欧盟也一直在为成为“道德AI”的领导者而努力。2019年4月,欧盟委员会公布了指导人工智能发展和信任的7项原则。虽然这些指导方针没有约束力,但它们可能成为未来几年进一步行动的基础。
紧接着,2020年2月,欧盟委员会在布鲁塞尔正式发布《人工智能白皮书》,计划对人工智能开发者提出具有法律约束力的新要求。值得一提的是,“白皮书”草案甚至建议3到5年内禁止人脸识别技术应用于公共场所,目的是留出更多时间评估技术风险。
据《方圆》了解,在我国,目前包括中国社科院、清华大学、复旦大学、上海交大等在内的科研机构与高校,工业界的人工智能公司等均已经开始进行AI伦理的相关研究。世界人工智能大会、北京智源大会等行业顶级峰会,也将AI伦理作为讨论的议题。
作为国内AI“领头羊”,北京旷视科技公司去年宣布成立AI治理研究院,并对外发布全球十大AI治理事件,从全球关注的自动驾驶事故、智能音箱劝主人自杀事件、AI批量创作假新闻到中国人脸识别第一案,以期让人们认识到AI治理的重要性。
晏奇是在旷视从事AI伦理研究的人员,他认为自己此份工作的必要性就在于,“针对这些事件背后问题做深度研究,可以提前考虑到一些可能的伦理争议,通过社会各界建设性的讨论,最终将AI向善这件事付诸实际”。
至于如何处理伦理建设与技术发展之间的平衡,朱廷劭向《方圆》表示,应当鼓励这方面的公开探讨,“当我们谈论人工智能如何使用的时候,实际上谈论的还是技术背后的那个人,合理合规地使用大数据和人工智能技术,是造福社会和保护隐私的重要底线,但另一方面,一味地因噎废食也是绝对不可取的表现。”
与此同时,法律是底线。今年7月9日,在上海举行的2021世界人工智能大会安全高端对话上,全国政协社会和法制委员会副主任、中国友谊促进会理事长陈智敏就人工智能伦理和法律问题进行了深入分享。
陈智敏表示,“目前,人工智能尚处于弱人工智能时代,生产力、生产关系开始面临解构和重塑。无论强人工智能、超人工智能时代是否到来,传统的生活次序可能受到撼动,甚至颠覆。需要对潜在的风险进行预判和研究,用伦理和法律搭建起风险治理框架,为人工智能持续健康安全发展提供可靠的保障”。
针对目前深度伪造技术可能引发的政治风险、社会风险,比如电信诈骗案频发、数据投毒导致人工智能系统误判等问题,陈智敏认为,应从法律法规上建立起数据权属、数据确权、数据安全保障、算法安全审查等制度,为人工智能发展形成正确价值导向。
事实上,据《方圆》了解,我国政府已经高度重视人工智能伦理法律建设,2017年,国务院发布的《新一代人工智能发展规划》中就已明确提出,要“制定促进人工智能发展的法律法规和伦理规范”,并就法律研究、法规设置、法律完善各方面设置详细的计划。
2019年6月,国家新一代人工智能治理专业委员会则发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南。
7月28日,由科技部发布的《关于加强科技伦理治理的指导意见(征求意见稿)》则更进一步,明确了我国科技伦理治理的基本要求和原则,并对科技伦理治理体制、监管与审查做了规定,旨在加大科技伦理治理力度,推动科技向善。