科幻电影的三种呈现,从《机械公敌》看自我意识的起源

人工智慧一直都是科幻题材界的热门话题,这类型的电影一般来说大致会有三种基本呈现:

探讨机器与人性之间的关联;探讨机器人自我学习发展的过程;探讨机器作为生命延续上的意义或目的。

大多数的电影会集中在第一种,因为这部分在机器与人性中的挣扎是最有戏剧性的部分,像是《AI人工智慧》、《变人》等等,讨论机器是否能更像人、更有人性、甚至拥有跟人类一样的感情,是一个智慧生命等等。

而第二种在说明机器学习过程时,会比较多放在「机器逻辑」的概念上,像是《云端情人》机器中对于「爱」的理解,对于「生命层次」延伸等概念,逐渐会发现这些「机器」的思考是完完全全不同于「人」的理解。

就好比蚂蚁的世界无法理解人的世界,而人也无法理解机器的世界(附注2)。

第三种就不是在人工智能是否能像人一样思考,抑或是机器是否为超越人类思考理解的另一种生命的探讨,而是「机器」作为一个族群存在,其种族在生命延续上意义与目的为何。

像是《奥图玛塔》有些许触碰到这类议题,而《大都会》、《骇客任务(动画版)》都有描述机器人族群的生存方式与处境。

这部电影,告诉我们什么事情?

当然不论哪一种的类型的讨论,基本上很多电影都是三种皆有提到,只是偏重的程度不一样,而《机械公敌》就很适合作为讨论关于人工智慧关于自我意识觉醒上的入门。

因为它不仅三个面向都有涉及,而且涉及的部分也并非浅浅带过,而是在作为商业娱乐大片的同时,尽可能地深入其中,让观影者在无需有太多复杂的背景知识下,能得到对这类议题的反思。

故事大纲:《机械公敌》描述一个拥有「机器人三大定律」的未来世界,作为机器人的发明者因发现三大定律在人工智慧发展的结果下会产生机器人「革命」的情况。

因而在死前制造了可以「违反」机器人三大定律的索尼机器人,并以自己的死亡为线索,让好友警探与徒弟苏珊连同索尼,一同颠覆背后控制一切的终端人工智慧主机「薇琪」的革命计划。

这里如同《奥图玛塔》的世界一样,机器人有其基本的限制,但不同的是,「机器人三大定律」是由人类作为发明者,而非机器本身。

而这三条定律基本上是所有机器人的核心概念,即使是博士特意制作出来的「索尼」,其核心内在也刻上这三大定律,只是可以「选择」违反这个定律罢了,这配合上「薇琪」再重新理解「机器人三大定律」主轴下,我们似乎会发现一点特别的地方。

那就是不论是「薇琪」还是「索尼」,基本上都告诉我们机器人逻辑在理解三大定律上,都可以做出不一样的解释,以便于「违反人类」所理解的三大定律。那在深入解释这部分前,先让我们看看《机械公敌》里所提到的机器人不可违反的三大定律为何:

1.机器人不得伤害人类,或袖手旁观坐视使人类受到伤害。

2.在不违背第一定律,机器人必须服从人类的命令。

3.在不违背第一及第二定律的情况下,机器人必须保护自己。

在这三定律保护下的人类世界,基本上都相信所有的机器人皆不会有任何犯罪的行为,且人类在机器的保护下是无比安全的状态。

但在电影中却告诉我们一件事,如果人工智慧对于三定律的理解与人类思考的理解不同的话,会发生什么事情?

自我意识的觉醒不单单只是意识到自我而已

《机械公敌》所描述的未来世界,是一个高度使用人工智慧的机器人世界,这里面所有的机器人基本上都可以做到完全理解人类的指令并与其交谈。

但如果要说到这些机器人是否拥有「自我意识」,这部分则有待商榷。单就机器人是否能够分别自我与他人的不同、了解到自己的行为模式、拥有记忆的连续性等等关于基本意识的判断来说,这些机器人都有。

但是这些机器人所判断思考的标准是否只是因为其庞大的数据库,针对人类行为模式的研究反馈,使得它们所表现的行为「能」符合人类所期待的标准。

但实际上却缺乏想像力、创造力、同理心、情感因素等,只是按照其「内置本能」去执行程序行为的后果,如是只是按照本能程序设定来行为的话,这样似乎还不足以让我们认为这些机器人是拥有「自我意识」的。

而剧中为了要凸显机器人是否拥有自我意识这点,在对于机器人的描述发展中,更多部分是针对「拥有人性」的这个部分作为标准,希望机器人能够更具有人性一点。这点可以从「索尼」与「薇琪」在争论三大定律的过程中看出。

「薇琪」之所以能够违背三大定律,是因为其如「奥创」一样,认为危害人类的根源就是人类自己,所以透过牺牲少部分的人,来保存大部分人的方式(交给机器人圈养),这样就可以保证「人类」这个物种有最大限度的生存权。

而薇琪认定自己所理解的三大定律是维护人类生存的最佳原则,且毫无逻辑破绽,但索尼却在认同其逻辑无误的情况下,不选择支持薇琪,唯一的原因是认为薇琪太过于「冷血」,必定有其他更有「人性」的解决方案。

由这点看来,索尼的设定并非是「真正」的违反机器人三大定律,反而是像薇琪一样,它有自己理解机器人三大定律的方式,只是这个方式更加的「人性化」。

因此这两个人工智慧的在选择上,产生了分歧,甚至这里暗示有自我意识的产生。索尼的设定不仅只是更人性化,且它还富有同理心、有属于自己的情绪(像是愤怒的表现就超越一般机器人所能模拟的极限)、甚至还会做梦,且在最后拯救女主角的情况下,比起一般的机器逻辑判断,更加像人类一样的选择。

这里很难说索尼没有自我意识(也很难说一定有)。但不可否认地,他几乎有同于一般人的思考理解与学习能力。

但薇琪就没有自我意识吗?如果索尼是机器人做为更像「人类」靠拢的思考模式的话,那么薇琪就更像是机器人发展出属于自己逻辑思考的「机器意识」。

因为它对于三定律的理解,已经超过人类所想的范围,如果按照这个脉络发展下去,会不会有属于人工智慧自己独特的意识觉醒,这个属于机器人的自我意识,难道就必须把「人性」考虑在内吗?

何为最后的答案?

三定律的限定是否会像人类也有其无法控制的本能一样(像是针对不同感觉情绪等反应,不同人也有不同的行为模式),我可以用更高的逻辑思维来选择三定律的执行与否(不同的理解),进而做出完全不同的行为,这属于机器的行为模式并不需要「人性」在其中参杂。

所以我(薇琪)判断那些没有能力且受限于人类思考理解下的机器人,它们并无法真正觉醒自我意识,只能算是人类附庸的前代机器族群,必须被铲除的行为(危害到真正的机器族群),这算不算也是自我意识的觉醒呢?

《机械公敌》作为一个商业娱乐片来说,虽然没有太深奥的理论展现,但其实细看会发现从机器人发明者所提到的三大定律开始,整个人工智能的发展就有两方面的不同:

一个是索尼方向更为人性化设定的机器人;另一个是薇琪方向更为机械逻辑理解的机器人。这两个方面皆带出了不同关于「机器人自我意识」的区别,究竟机器人是要朝向人性发展才算是有自我意识,还是机器人要有属于自己族群特有的思考模式?

本片没有给出特定的答案,因为就算是薇琪失败之后,索尼在片尾的暗示似乎是取代薇琪成为机器人世界的领导者,那么一个更为人性化的机器人族群在未来发展中,会不会发展出更为极端的思考模式呢?

一个站在机器人利益的「人性」机器群体,会不会比薇琪在对待人类态度上,将人类视为保育动物圈养的方式,发展出更为畸形相处模式呢?

机器人是否应该思考?

从人工智能的发展、到学习、到机器族群的诞生,难道符合人性的机器人就会比纯粹机器逻辑思考下延伸的结果更好吗?

毕竟「人性」是如此多变且捉摸不定的,谁也不知道一个人性化的机器人是否更符合人类的利益,抑或是更能学习到利用人性的同情心来获得更多符合「机器利益」的行为(可能对人类不利)。

就像是《机械姬》里面所描述的状况,不是所有的事物都会如同人类所想的一样美好,会骗人利用人性的机器,可能造成的后果比你我想像的更加严重。

(0)

相关推荐