陈根:对机器人大打出手,是关于什么的问题?
文/陈根
不论接受与否,人工智能都已经与我们的生活深度融合。一方面,人工智能给人们生活生产带来了效率和便捷,推动社会经济持续发展;另一方面,人工智能本质上作为一种技术,在给产业带来颠覆和革命的同时,也给人们既有的伦理认知等带来了挑战。
其中,“机器伴侣”作为未来智能机器人发展最广阔的领域,已经越来越多地介入人们的生活,扮演助手、朋友、伴侣甚至家人的角色。当人们不可避免要进入人机共处的时代,不可避免地要与机器人“比邻而居”时,一个不可避免的全新的问题随之诞生——我们如何与机器人相处?
当机器人越来越被赋予人的温度时,除了反思人机交互带来的人与人的关系改变、人与社会的关系改变外,面对人与机器这一新生的关系,我们又该作何回应?
人与机器人,如何相处?
人工智能,顾名思义,是机器对人类智能的功能模拟。当下,人工智能已经渗透进了人们社会生活的方方面面。每日打开的新闻是人工智能为我们做的算法推荐;网上购物时,首页上显示的是人工智能为我们推荐的最有可能感兴趣、最有可能购买的商品。
这些智能化的技术成果为人们的生活提供了便利,这是人工智能时代下,人类与世界连接的方式。但这些技术又与过去的任何一种农业时代技术或工业时代技术不同。
工业社会时代,人对于技术的敬畏是天然的、明显的。技术被看作是一种具有阶层和权力属性的工具,掌握技术的人通常被赋予更高的权力,保持在一个更高的社会阶层和地位上。但是,在人工智能时代下,智能技术覆盖融合着人们的生活,所以对于技术的理解和驯化,调试人和技术的关系成为当下研究的基本范式。
对于各种陪伴机器人,不论是无形的智能软件或智能音箱,还是将来可能出现的外形上能以假乱真的人形机器人,都是在功能上可以与人交互的智能体或者行动者。在这样的背景下,“机器人”成为人们可能联想到的某种与人的“形象”有关的对象或实体。它们是可以与人产生交互关系的对象,而不仅仅是某种纯粹的工具或机器。
事实上,任何一种实体,只要具有了人的形象,或者与人产生交互,它就获得了某种特殊的意义,如历史人物的雕像、艺术家创造的人物雕像等。在面对这些实体时,人们的内心往往会充斥某种或崇敬或亲切的情感。
而高度发达的智能机器人不仅将会有着“人的形象”,而且更是逐渐具备或展现许多人的属性:符合人类礼仪的言谈举止、较快的推理与思维能力、对人类的法律与道德原则的遵守等。
随即而来的一个问题是:我们该如何与机器人相处?人与陪伴机器人的关系应该像“我-你”关系那样,建立在相互平等与尊重的基础上,还是当人们心情不好的时候,可以对陪伴机器人大打出手?
2017年末,在奥地利的一个科技博览会上,塞尔吉·桑托斯博士开发的两性机器人萨曼莎就被人反复猥亵,并受到暴力对待,直接导致萨曼莎的两根手指被折断。但迄今为止,这类问题必然要遇到的一个麻烦是,机器人没有意识,甚至并不真正知晓它自己是机器人。即便它被人们赋予人的形象和人的属性,但机器人的行为终究还是计算的结果。
在机器人没有自我意识之前,无论人们如何对待它,其所呈现的喜感或悲伤都是人设计给人看的,机器人自身并没有可以真实感受喜怒哀乐的内心。因此,人们可不可以任凭自己的喜怒哀乐随意地对待机器人?目前并不直接涉及交互意义上的人与机器人之间的伦理关系,而主要取决于人们在道德上是否接受这种行为。
尽管这些道德限制需要依据的事实基础目前尚不明晰,但至少可以认定的是,以强人工智能技术、基因工程技术等为基础的机器人能够享有作为道德承受体的道德地位。事实上,早在2017年,沙特政府就正式授予机器人索菲亚“沙特公民”身份。而对于未来的两性机器人,更是有可能进入人们的生活,扮演人们生活中的重要关系角色。
显然,从避免技术滥用的角度来看,也应该展开必要的使用规范性研究。我们不仅要尊重自己身上的人性,更要尊重机器人身上的人性,以尊重的态度对待机器人。
智能设计如何为机器人立心?
除了展开人们在具体场景中对于机器人的行为可能出现的问题的细节评估,探寻可行的伦理规范外,当前的陪伴机器人依然处于初级阶段。如何在人与机器人交互以前对机器人进行设计,则是另一个不可回避的问题。机器人不是传统意义上的简单商品,当机器人展现人的形象并拥有人的属性时,为机器立心是设计机器人的重要前提。
事实上,人在与机器的交往过程中往往会受到机器行为方式的影响,这种影响通常是无形的,但又确实存在。这提示设计者,在与人相似的机器人的设计上,应使其能够按照人类的规则来与人类交往。
性爱机器人是未来陪伴机器人的一个重要细分领域。显然,在设计性爱机器人时,就不能仅仅把它们当成“情趣用品”来设计,而是需要把人际性爱交往的某些基本规则(如知情同意原则、相互接受原则)纳入性爱机器人的程序中。
再比如,在设计机器人士兵或机器人警察时,就需要避免把其仅仅当作军事机器人来设计。机器人士兵与机器人警察的道德判断与行动都直接涉及人的生命,因而它们的设计与生产不仅需要透明、公开,还需要接受某个公正的全球机构的监管。必须要把对人类核心道德的维护与遵守作为强制性条款编入这类机器人的程序中,机器人士兵与机器人警察的设计需要遵循某些共同的全球标准。
此外,尽管以强人工智能技术、基因工程技术等为基础的机器人能够享有作为道德承受体的道德地位,但显然,机器人最多只能成为显性道德行为体,而不是像成熟人类个体那样的充分的或完全的道德行为体。
这是因为,虽然机器人能够履行常规的道德责任,但当面临复杂的道德境遇或需要做出艰难的道德判断与道德选择时,机器人没有几亿年的进化史留在人类身上的刻痕,没有生物的直觉和本能,终究需要正常而理性的用户或专家需要帮助机器人做出相关的判断和决定。
这也意味着,机器人的设计者需要为机器人的行为承担部分道德责任。因此,在设计机器人时,一开始就应该想办法限制那些别有用心的设计。比如,不应该制造那些蓄意撒谎的陪伴机器人,一旦机器人撒谎的能力得到开发,就难免出现陪伴机器人包庇人类不当行为或违法行为的情况。
人才是机器人的道德监护人。随着机器人越来越多地介入我们的生活,人类不可避免地要进入人机共处的时代,我们不可避免地要与机器人“比邻而居”。但在这样的新时代到来前,人机交互的关系也值得被我们持续反思。对于机器人,只有审慎和克制,才不会带来自弃与沉溺。