自动驾驶汽车——现实版电车难题

自动驾驶汽车对我们的道德抉择提出了新的挑战:自动驾驶汽车的行为被设计师预先设置,电脑使用算法在不可避免的危险情况下做出决策。《MIT Technology Review》2015年就已经发表文章,预测了自动驾驶汽车将会面临杀人的抉择,决定拯救汽车乘员而杀害行人还是牺牲乘员的生命以挽救行人生命。这样的临时决策在瞬间便要得出,但需要基于大量的研究和讨论。同样的普适算法也会同时用于数百万辆汽车,这放大了任何固有微小偏见的影响,并凸显了正确应对它的重要性。一个典型的失败例子就是Tay:2016 年微软发布了一款名为Tay 的 AI 机器人。微软原本希望机器人可以回复公众的推文和聊天,并且从中学习。但是事与愿违,在上线仅 16 小时后,Tay 就变成了一个种族歧视和性别歧视的怪物——这至少表明,现有的人工智能技术学习人类的方法并不完善。

一项研究认为,道德判断和行为高度依赖于环境,而认知过程的精确模型是迄今为止无法建立的。因此,自动驾驶汽车的道德模型应旨在匹配人类在相同背景下做出的决定。[1] 因此,这一团队进行了虚拟现实研究,使参与者必须针对不同的障碍组合做出道德决策,并使用获得的数据来修正和评估不同的道德决策模型。

在交通中不可避免的事故测试中,简单的生命价值模型很好地近似了人类的道德决定。美中不足的是,这些研究人员排除了对任务有部分误解的受试者,以及三个异常值,因为他们的决定与模型预测相反。

不难看出上面这些论述的漏洞:首先,认为道德判断匹配人类在相应环境下的反应可能是不合适的,因为人作为感性动物在紧急情况下做出的下意识反应不一定总是正确的,其次,在交通事故这类紧急情况下,人的判断有可能呈现截然不同的结果。而且,故意排除一部分被试,也有可能极大的影响测试的可信度。这样一来,模仿人类的自动驾驶汽车很可能产生和Tay相同的后果——被人类的一些错误行为影响,并放大这种影响。所以,模仿人类的行为也有可能是很不明智的,除非这些样本来源完全“理想”,不过这很难实现,凡是人类被试或多或少都会有一定的环境和社会背景影响。

有研究人员进行了以下实验[2]:通过测量被试的唾液皮质醇水平来评估压力对被试进行道德决策结果的影响。被试对三十个道德困境做出回应,记录其决定和反应时间。这个实验使用了三种困境:非道德、非个人道德和个人道德。但是,十分奇异的是,数据表明,男性和女性通过不同的机制处理道德决定,导致不同的结果。

压力反应并没有改变性别之间的这些差异,即压力导致男性和女性的功利性反应减少。另一项研究表明,在低冲突和非个人道德困境中[3],不同答复的比例在各个情况下几乎没有差别,但是,压力的存在放大了道义论的作用——恰好与上面说到的“减少功利性”相吻合。

另外的研究报告提出了上面这种道德判断在交通中一些平凡的例子[4],对于日常生活中的道德困境而言,:其一,技术不完善,导致了这个问题具有紧张性。其二,交通案例符合的设计框架,使得它只能讨论说明有限范围内即这个框架里面的道德问题。其三,当交通事故需要法律裁决时,我们似乎更需要道德判断来给出答案。其四,我们对这种汽车面对两难问题的道德困境有误解。但是,人类可以直观地做出决定,而机器不能。从我们的日常生活来看,这是特殊的挑战:对于我们来说,自动化系统很难。人类凭直觉决定需要如何操作。然而,这种直观的感觉很难转化为算法。例如,汽车通过斑马线,后面还有别的车辆要开,不希望我们减速,而在一天的这个时候,这个街区的街道会没有行人。准确地阐明驾驶策略的难度表明,在平凡的情况下,以自上而下的控制车辆行为的方法不太可能成功。因此,这种预设程序的算法也许很难应用在自动驾驶汽车的程序中。从另一个方向考虑,如今多发的车祸往往是“人祸”。目前的数据表明,将全国的事故率和自动驾驶汽车数据的碰撞率相比,自动驾驶汽车的碰撞发生率较低。这意味着,无论采用功利性算法还是道德算法,自动驾驶汽车都可以减少交通事故引起的伤亡。

这就牵涉到另一个问题,人类的道德判断不总是正确的,从一个最常见的交通事故看,惊慌失措的驾驶员有可能会误判形势,人们有可能手忙脚乱而引起更加严重的后果。因此我们还要讨论关于人类的道德判断是否合理的问题:关于大脑的功能性磁共振成像对我们理解大脑行为很有帮助[5]。人脑关于道德判断,各个组成部分存在潜在的紧张关系:前叶支持抽象思维和高层次认知控制,定义功利主义的"道德演算"因此产生。当然,在无人驾驶汽车的程序设计中,我们不能允许这种缺陷的存在,任何一个状况必须有明确的指示。这意味着,我们应该研究一种算法来准确地权衡利弊,以决定无人驾驶汽车面对难以避免的交通事故应该如何操作。

从消费者的角度出发,似乎更倾向与交通事故时保护车内的人,同样,制造商可能也会迎合消费者的意愿,这样一来,采用功利性算法的驾驶汽车会因为推迟应用更安全的技术而增加伤亡的可能。[6]在这一实验的所有研究中,参与者都表示在道德上倾向于自动驾驶汽车牺牲乘客以拯救更多的行人。对于参与者在同事、家庭成员或自己的孩子的陪伴下在自动驾驶汽车中想象自己的情况,这种道德偏好非常强烈。然而,参与者并没有表示对购买功利性算法自动驾驶汽车的相应偏好,特别是当他们想到家庭成员乘坐汽车时。此外,参与者不赞成对自动驾驶汽车实施功利算法的,并表示根据此类规律,他们不太可能购买自动驾驶汽车。这样的社会调查表明了一旦人们了解这种功利算法的运作方式,他们还是倾向于保护自己和亲人的安全——如果这种算法得到广泛应用,与此同时就会带来销量的下降。

从整个社会的角度看,功利性算法也许是必要的,但有时也会适得其反。自动驾驶汽车的道德算法造成了一种社会困境:虽然人们倾向于认为,如果自动驾驶汽车采用功利性算法(尽量减少道路上的伤亡人数),每个人都会过得更好,但这些人有个人动机乘坐自动驾驶汽车,他们就会不惜一切代价保护他们自己——毫不关注道路上的伤亡。此外,我们提出,经典电车难题在概念上不足以讨论自动驾驶汽车面对行人的道德背景。其原因是,我们所讨论的交通困境有三个重要结构,电车难题未能对其进行建模:战略交互、迭代以及个人占据的不同位置。因此,如果允许自我保护和功利性算法的自动驾驶汽车上市,将很少有人愿意乘坐功利性算法的自动驾驶汽车,但是他们宁愿别人这样做。严格的监管可能为这个问题提供解决方案,但监管机构将面临两个困难:首先,大多数人似乎不赞成实施功利性自动驾驶汽车的法规。其次,更严重的问题是,调查结果表明,这种监管可能会大大推迟自动驾驶汽车的采用。

功利性算法在现实情况会遇到很多悖论或是困扰:例如,考虑一下看似最直接的情况,即汽车在各种路径上遇到不同类型的人,这是一场不可避免的事故。想象一下,一边是年长的成年人,另一边是年幼的孩子。在这方面,从预期寿命的角度来解释这一原则将导致决定挽救儿童的生命。在另一种情况下,我们可能想象一边是四个老年人,另一边是两个年幼的孩子。根据预期寿命做出决策显然不再那么简单了。如果一边是青少年,另一边是年长的女人推着婴儿车怎么办?在这种情况下,最大化生命的算法应当如何设计?在任何此类计算中,我们需要考虑情况的变化(情况可能演变的概率)。

例如,一边是四个年轻人,一边是老年人。在这种情况下,该算法需要考虑这些行人对接近他们的汽车的反应。与老年人相比,这四名年轻人更为敏捷,更有可能迅速完成能够挽救他们生命的反应,以让开道路。在这种情况下,最大限度地延长生命的数学期望可能需要把自动驾驶汽车开向那四个年轻人。使生命最大化的算法绝不足以充分处理这种情况,因为在所有情况下,最大化生命期望和保护人类的安全不是一回事。同样的最大化生命期望原则,在不同情况下也可能导致相反的行为。

由于伦理学,特别是政治哲学,经常面临这种两难困境,哲学已经开发出了一些“工具”来处理这些分歧[7]。自由社会最常见的做法是划分道德决策空间,从而给予个人按照自己的标准行事的自由。这时,为了应用这种哲学工具,我们应该处理另一个问题[8]:我们是否应该为整个社会规定一个共同的、具体的道德设置,或者每个驾驶者都应该设定自己的道德标准?首先,社会可以商定一个道德规则,该规则对其控制下的每个个体(包括机器人)都是强制性的。这样做看起来较为明智:人们必须有一个可以事先由社会所有成员商定的规则。其次,每个人可以选择自己为自动驾驶汽车选择自己的道德标准。从理论上讲,用户可以通过设置自己的车来对自己的生命负责,或者设定一个可能的保护生命的门槛,从而决定自己的汽车在两难的情况下应该如何行动。这样会带来另外的问题:过去两年来,自动驾驶汽车在类似电车难题的情况下应该如何行驶的问题引起了许多争论。电车难题在其自动驾驶车辆版本的争论在很大程度上再现了原来电车难题的道德分歧。研究者们提出了两种处理关于电车难题的道德分歧的方法:在自由社会处理道德分歧的默认选择是划分道德决策空间,使每个人能够按照自己的理想理解生活,从而在一定的限制内尊重个人。在自动驾驶汽车的应用到的情况下,这将达到有利于个人道德设置的峰值。

然而,反对者的观点是,如果允许个人道德设置,就可能导致一种具有囚犯困境结构的情况。对个人利益的激励将排斥合乎社会道德的个人道德设置,并促使人们选择自私的个人道德设置。因此,有理由认为,这种情况的可能后果是,与由第三方强制执行的强制性规则相比,无论是道德代理人还是自私者的情况都会变得更糟。虽然大家的共识是,人们不愿意使用一辆在会两难困境中牺牲车内人员的自动驾驶汽车。但一些不驾驶这种汽车的人争辩说,这样的设计符合每个人的利益。由于大型社会不具备防止个人选择自私的个人道德设置所需的非正式制裁的力量,研究人员主张制定一项强制性规则,旨在尽量减少总体伤害。国家管制似乎是实现这一目标的最简单和最实际的方法。

综上所述,通过政府的强制力实施,并以减少总体的伤害为目标,得到“优化的功利算法”,这样的自动驾驶汽车设计,较之其他“道德算法”“功利算法”和“个人设置”,使得汽车在面对突发事件时,具有更好的普适性。

参考文献:

[1]Leon R. Sütfeld*, Richard Gast, PeterKönig and Gordon Pipa,(05 July 2017)UsingVirtual Reality to Assess Ethical Decisions in Road Traffic Scenarios:Applicability of Value-of-Life-Based Models and Influences of Time Pressure;doi:10.3389/fnbeh.2017.00122

[2]FaridF. Youssef*, Karine Dookeeram, Vasant Basdeo, Emmanuel Francis, Mekaeel Doman,Danielle Mamed, Stefan Maloo, Joel Degannes, Linda Dobo, Phatsimo Ditshotlo,George Legall ;(27 December 2010);Stress alters personal moral decision making.doi:10.1016/j.psyneuen.2011.07.017

[3] Suter, R. S., and Hertwig, R. (2011).Time and moral judgment. Cognition 119, 454–458. doi:10.1016/j.cognition.2011.01.018

[4]Johannes Himme lreich,(17May 2018)Never Mind the Trolley: The Ethics ofAutonomous Vehicles in Mundane Situations;https://doi.org/10.1007/s10677-018-9896-4

[5]JoshuaD. Greene,Leigh E.Nystrom, John M. Darley;(October14, 2004 );The Neural Bases of Cognitive Conflict and Control in Moral Judgment.

[6]Jean-FrançoisBonnefon, Azim Shariff and Iyad Rahwan (June 23,2016 )The social dilemma ofautonomous vehicles; Science 352 (6293), 1573-1576. [doi:10.1126/science.aaf2654]

[7] Nassim JafariNaimi;OurBodies in the Trolley’s Path, or Why Self-driving Cars Must *Not* Be Programmedto Kill;DOI:10.1177/0162243917718942

[8]JanGogoll,Julian F. Mu¨ller;(27 June 2016 );Autonomous Cars: In Favorof a Mandatory Ethics Setting;DOI 10.1007/s11948-016-9806-x

(0)

相关推荐