【专题】程广云|从人机关系到跨人际主体间关系 ——人工智能的定义和策略

摘要:为了区分作为工具的智能机和作为主体的机器人,关于人的定义必须由本质主义转向功能主义。迄今为止,人工智能经历了形式化、经验化、理性化三个发展阶段,但却仍然不是在结构上,而是在功能上模拟人类思维。只有关于人的功能主义定义才能兼容未来的新物种和新人类——“不受控”机器人。如果“不受控”机器人出现,自然人和机器人的关系将会从人机关系发展到跨人际主体间关系。这种关系既非以往人和机器的关系、人和动物的关系,亦非自然人之间的关系,自然人不应套用以往策略对待机器人。人类至上主义并非不证自明。自然人自身再进化、人机并行、人机融合是自然人避免被机器人所超越、替代、淘汰的可行方案。

关键词:智能机;机器人;本质主义;功能主义

1

一、人的定义:从本质主义到功能主义

人工智能(AI)创造出来的产品究竟是智能机(intelligence machine),还是机器人(robot),这是我们在讨论相关问题时所需要考虑的一个前提性、基础性问题。如果是智能机,那它就是我们人类所创造出来的一种工具、手段,哪怕这种工具多么复杂,这种手段多么高级,它也只是像我们传统哲学教科书所断言的:正像普通机器是人手的延长和人的体力的放大一样,智能机器是人脑的延长和人的智力的放大。如果是机器人,那它就是我们人类所创造出来的一种新物种、新人类。这样一种划分在中文里比在英文里更明显。作为前一种情况是不足为虑的,作为后一种情况值得我们焦虑。那么,这两种情况的划分标准在哪里呢?

梅剑华在“人工智能基础问题的悲观与乐观”一文中提出,我们需要首先辨析人工智能的四个基本概念:弱人工智能、强人工智能、通用人工智能、超级人工智能以及它们之间的区别和联系。[1]其中,弱AI/强AI是塞尔(J.R.Searle)在“心灵、大脑与程序”(《行为和大脑科学》,1980)一文开头提出的:“弱”AI就是一个“工具”,“强”AI“具有理解和其它认知状态”,“就是一个心灵”。[2]弱AI包括两个部分:一是专家系统,是指对人类智能的局部模拟:二是通用系统,是指对人类智能的全局模拟。而超级人工智能则是相比人类最优秀的智能更聪明的智能。但是,按照塞尔观点,无论专家系统,还是通用系统,作为“工具”都是“弱”AI,作为“强”AI“具有理解和其它认知状态”,“就是一个心灵”。这里,我以为有两种划分方式:一种是本质主义的,一种是功能主义的。

本质主义思维方式是说,从人的诸多特征中寻找某一根本特征,认为凡具有这一特征的就是人,凡不具有这一特征的就不是人,譬如理性、语言、社会、劳动,诸如此类。我们既然以此为标准划分人与动物,也就能够以此为标准划分人与机器。

然而,按照本质主义思维方式,我们就不可能走到今天。众所周知,人工智能起源于这样一个问题的提出:“机器如何思维?”这一问题之所以提出,是因为科学家们已经做出一个假定:“机器能够思维!”这就摒弃了思维专属于人的成见。图灵在《计算机器与智能》(1950)一文中,首次提出“机器能够思维”的论点,促使人们积极探索智能模拟的具体途径。图灵(A.M.Turing) 通过“模仿游戏”证明“机器能够思维”。([2], p.56)所谓“图灵准则”、“图灵检验”被人们称之为行为主义,类似我所谓的功能主义。他对种种反对意见(如“有关意识的论点”等)的若干回答也就是对本质主义的批驳。这与塞尔观点正好相反。20世纪50年代中期,由于计算机技术的发展,以及它与控制论、信息论、数理逻辑、神经生理学、心理学、语言学和哲学的相互渗透,人工智能作为一门新学科开始形成。1956年,在美国达多马斯大学召开了有关人工智能的夏季讨论会,把人工智能正式确定为一门学科。同年,美国心理学家纽艾尔(A.Newell)、西蒙(H.A.Simon)和肖(J.C.Shaw)编制了一个叫作“逻辑理论家”的程序系统,它能证明罗素(B.A.W.Russel)与怀特海(A.N.Whitehead)《数学原理》中的数理逻辑定理,从而体现机器智能。科学家们认为,思维就是运用一种语言,一种逻辑。这种语言显然不是日常生活中的自然语言,而是人工语言——数学语言。人类使用的数学语言以十进制为基础,而让机器掌握十进制数学语言则相当困难。考虑到机器有两种基本状态:开和关,科学家们就为机器编制了二进制数学语言。导通代表1,截止代表0,逢2进1,这样就解决了机器数值运算问题,最终计算结果是以人们习惯的方式显示给人们的。再进一步,科学家们认为,逻辑关系同样可以数值形式表达,于是提出数理逻辑,譬如1代表肯定,0代表否定输入两个逻辑量:肯定(1)和否定(0),如果两个输入只有一个肯定,结果就是肯定,这叫做“或”逻辑:如果两个输入必须全是肯定,结果才是肯定,就叫做“与”逻辑:如果输出是输入的反面,则叫做“非”逻辑。由此制订一套逻辑代数规则,这样就解决了机器逻辑运算问题,也就初步解决了机器思维或人工智能问题。

从那以后,人工智能取得了重大的进步。前述梅文提出,人工智能的发展大致可分为三个阶段:逻辑推理(1956-1980年代)、概率推理(1980-2000年代)、因果推理(2000-)。([1],p.2)假如这一个划分尤其第三个阶段成立的话,我以为这恰好揭示了人工智能迄今为止的三个发展阶段:形式化、经验化、理性化。在第一个阶段,机器人只是在形式上模拟人类思维,在实质上还是智能机:在第二个阶段,机器人开始模拟人类经验:在第三个阶段,机器人开始模拟人类理性。人工智能也称机器思维。人工智能是人类智能的模拟,机器思维是人类思维的模拟。模拟包括结构模拟、功能模拟,由于人脑高度复杂,不是一个打得开的“白箱”,而是一个打不开的“黑箱”,因此在相当一段历史时期里,人工智能不是在结构上,而是在功能上模拟人脑。

围绕人工智能(机器思维)这一中心问题,我们进行了长期的哲学探讨。像传统哲学教科书那样,我们认为思维是人脑的机能和客观世界的主观映象。这就将思维的种种可能封闭为思维的一种现实亦即人类思维。这也就是本质主义思维方式,亦即形而上学思维方式,是真正“不结果实的花朵”。反过来说,这就要求我们转向实践哲学思维方式,亦即功能主义思维方式。人工智能科学把思维符号化。它揭示了哲学和具体科学在思维方式上的异同。具体科学具有可建构性、可操作性,这一基本特点为英美哲学传统(经验主义—功利主义—实用主义—实证主义)所影响。但是,像传统哲学教科书那样,我们还要步步设防:即使机器能够思维,它也不是人的思维。我们在机器思维与人类思维、在人工智能与人类智能之间划清界限。这种做法就像我们在火车和马车之间划清界限一样,对不对呢?——对!有没有用呢?——没用!火车一开始甚至跑不过马车,但是现在,在运输工具上,马车早已被火车替代、淘汰了,无论运载能力还是运行速度,火车都远远超过了马车。今天我们在机器与人类之间划清界限,极有可能面临同样一个局面:机器超越了人,替代了人,淘汰了人。当然这一比喻并不确切,无论马车,还是火车,不过运输工具而已。而我们今天所谈论的机器和人类的关系,则是指机器能否具有像人类一样的思维能力,甚至超越这一能力。当然,还有许多事情无法判断,究竟是科学潜能,还是科学幻想。然而我们由本质主义思维方式转向功能主义思维方式,则是完全必要、非常及时的。

功能主义思维方式是说,不管两个存在物A和B属性有何不同,本质有何不同,只要A的行为所起到的作用、所发生的效果,B的行为也能起到,也能发生,那么它两个就是同一类。如果机器能够像人一样思维,那么它的思维就是人的思维;如果机器思维能够比人的思维更快捷、正确,那么它的思维就超过了人的思维。由此类推,如果机器能够像人一样行为,那么它的行为就是人的行为;如果机器行为能够比人的行为更快捷、高效,那么它的行为就超过了人的行为。感觉、欲望、感情、意志,均可如此衡量。

有种本质主义思维方式认为,人类思维的本质是反思,即以自身思维为对象的思维,对意识的意识,亦即自我意识,因此以有无自我意识或意向性来划分机器思维和人类思维、人工智能和人类智能。但是,怎么知道机器不能具有自我意识?当然现有机器,包括阿尔法狗(AlphaGo)、沙特阿拉伯公民索菲娅(Sophia)等等,还不具有自我意识,但是我们讨论一切问题,不是在现实性上讨论,而是在可能性上讨论。机器现在还不具有自我意识,并不等于将来也不具有自我意识。迄今为止,整个人工智能历史表明,机器何以思维(意识)?在于思维(意识)是通过编码即符号化进行的。自我并非一种实体,它是一种意识。自我意识作为一种意识,在原则上同样可以编码。甚至感觉、欲望、感情、意志, 也都可以编码。

按照托夫勒(A.Toffler)观点,“知识”(knowledge)是经加工制作可以发挥作用的“信息”,“信息”(information)是分类整理后的“数据”,“数据”(date)是各种搜集起来的“数字”和“事实”。[3]按照OECD观点,知识分为四类:知道是什么的知识(Know-what)即事实知识(“知其然”)、知道为什么的知识(Know-why)即原理知识(“知其所以然”)、知道怎么样做的知识(Know-how)即技能知识和知道是谁的知识(Know-who)即人际知识。根据这种分类,前两类知识属于“编码化知识”即“归类知识”(“言传”型),亦即“信息”,较易于编码化(归类)和度量,人们可以通过理论学习——读书、听讲和查看数据库(“言传”)获得;后两类以及其他各类知识属于“隐含经验类知识”即“沉默知识”(“意会”型),较难于编码化(归类)和度量,人们可以在实践中学习(“身教”)获得。[4]由于人工智能的出现,知识逐步编码化,而“编码化知识”又可以通过人工智能加以掌握,在电脑及其网络中存储和流通。在这种情况下,人类智能、人脑及其网络应当着重把握的是“隐含经验类知识”。因此,这种知识分类反映了人—机知识分工的历史特征。人—机知识分工在于人们通过运用自身“隐含经验类知识”,使用机器存储和流通的“编码化知识”,并且力图将前者逐步转换为后者。

然而人工智能最新发展表明,机器已经不仅仅是机械执行人类所输入的程序,而是通过大数据、云计算拥有了深度学习的能力。以往机器所具有的只是“编码化知识”,现在机器在某种程度上已拥有了“隐含经验类知识”。这就是人工智能的一个重大突破。这一突破表明,一种可以称为机器人的新物种或新人类即将出现。出现的标志并不是按照本质主义所可以定义的,而是按照功能主义定义,只要某种人造物不受人控制,具有自主性,它就不是智能机,而是机器人。自主性并非一种新的属性、新的本质规定,而是表现于不受控中,“不受控”是在功能、作用、效果上衡量的。当然,许多自然物,例如小行星,在我们认识和运用它的规律前也是不受控的,但我们说的是人造物;许多人造物,例如核武器,似乎也是绝大多数人所控制不了的,但它终究还是极少数、极个别人所控制得了的。“不受控”亦非自动化,自动化不仅初始控制属于人类,整个运行也是按照人类意愿进行,并且人类可以中止这一运行。“不受控”则是整个过程自始至终不受控制或者初始控制属于人类但随后却失控并且最终无法恢复控制。这里还要排除偶然失控现象,它是一种必然失控现象,不仅是事实上“不受控”,而且是原则上“不受控”。其实,近来对于人工智能的担忧,就是对于某种“不受控”机器人的担忧!

2

二、人的策略:超越人类至上主义

假定这样一种“不受控”机器人出现,机器人和自然人的关系就会成为一个问题。这里“自然人”不是在与“法人”“社会人”相对应的意义上,而是在与“机器人”相对应的意义上说的。这个问题是前所未有的,与原有人机关系存在着根本不同:自然人和智能机的关系还是人机关系,还是主体和客体(对象)、中介(工具)之间的关系,自然人和机器人的关系则是主体和主体的关系,这种新型主体关系既不同于任何主客体关系,也不同于现有人与人之间的主体间关系,可以称为跨人际主体间关系。

人类又应该怎样处理自己与这种新物种、新人类的关系呢?——我们需要回顾一下人类怎样处理自己与其他动物的关系。

根据达尔文生物进化论,人类是从某一高等动物(即古代类人猿)中进化出来的,因此人猿(即现代类人猿)同祖。这种进化达到这样一个程度:人类智商远远高于其他动物智商。人类不像曾统治过地球的恐龙那样主要通过自身的体力(体能),而是通过脑力(智能) 统治其他动物。人类治理动物世界的基本策略是区别对待两类不同动物:一类是可驯化的家畜和其他家养动物;另一类则是不可驯化的野兽和其他野生动物。前者是人类的食物或奴隶,后者是人类的天敌或俘虏。在相当一段历史时期里,人类与自然之间的斗争包括与某些威胁人类生命和财产的野兽、野生动物之间的斗争,为了自身安全,消灭牠们。现在这场斗争已经取得重大成就,但也带来严重后果:不仅许多野兽、野生动物被消灭了,人类文明的进步和发展甚至威胁到了许多动物生态环境,技术圈正在破坏生物圈。许多动物濒临灭绝。在这种历史背景下,动物保护主义兴起,它和环境保护主义、生态主义一起,成为当今人类共识。从动物园把动物关在笼子里,到野生动物园把动物放出笼子外,人类对待动物的观念和行为方式发生了根本的变化。但是,由于智商悬殊,人类和动物的伙伴关系仍然是难以想象的。人类多半还是监护人,而动物则是被监护对象。除非我们通过某种技术,将动物智商提高到类似人类水平,通过人类语言和动物语言之间的翻译,实现二者对话。但是人类和动物的友好关系是可以建立起来的。

在相当一段历史时期里,人类与动物的关系代入到了人与人的关系之中。不同人群之间相互斗争,他们采取了类似于自己与动物斗争的策略:区别对待,要么作为敌人,消灭他们,俘虏他们;要么作为奴隶,奴役他们,甚至作为食物,吃掉他们。人与人之间的民族斗争、阶级斗争是动物之间生存斗争的残余形态。但是,人类文明的进步和发展使得人们终于意识到了人人应该自由、平等,享有人权、法治。

自然人对待机器人的策略又是什么呢?——许多科学幻想小说、影视作品都在套用人类与动物的关系、人与人的关系所曾发生过的故事,想象未来人机大战:人类从强者变成了弱者,机器人消灭自然人,自然人成为机器人奴隶,……总之天命循环,报应不爽。曾经落到动物头上的悲惨遭遇最终全部落到了人类头上。

但是,人类对动物的观念已经从人本主义(如密尔)转变为自然主义(如爱默生)。这一观念可以追溯到达尔文那里去,在利奥波德和罗尔斯顿Ⅲ(H.RolstonⅢ)那里得到了系统的阐明。利奥波德(A.Leopold)在《沙乡年鉴》一书中提出了著名的“土地伦理”。利奥波德认为,“伦理”所适用的“共同体”界限是逐步扩大的:从最初只适用于主人(奴隶主以及其他自由民),而不适用于奴隶的“主人伦理”,到后来变成只适用于人类,而不适用于其它物种的“人类伦理”。如今,“伦理”所适用的“共同体”界限应当再进一步扩大。“土地”“包括土壤、水、植物和动物”,“土地伦理”“宣布了它们要继续存在下去的权利,以及至少是在某些方面,它们要继续存在于一种自然状态中的权利。”“是要把人类在共同体中以征服者的面目出现的角色,变成这个共同体中的平等的一员和公民。”它包括对每个成员和对这个共同体本身的尊敬,以“保护生物共同体的和谐、稳定和美丽”为标准,衡量“一个事物”的“正确”和“错误”。[5]利奥波德“土地伦理”的意义是实现了从人类中心主义到自然中心主义的突破。罗尔斯顿Ⅲ批判了“人类沙文主义”,明确提出生态“共和国”,认为每一物种都是生态“共和国”公民。[6]这就是说,整个生态圈就是一个共和国,我们每一个人既是国家公民,又是世界公民,还是生态公民。其它物种,甚至作为个体的动物、植物和微生物等,同样是这个生态圈共和国的公民。罗尔斯顿Ⅲ的主要贡献是进一步明确从人本主义转向自然主义。

我们能否将这样一种自然主义(自然中心主义)观念移植于自然人和机器人的跨人际主体间关系之中?显然,当前我们的主流观念还是停留在人本主义(人类中心主义)之中。这就使得人类对待机器的态度与对待动物的态度极端不一致。当机器从智能机发展到机器人,以及人工智能超越人类智能“奇点”来临时,我们的态度再一次发生转变:我们可以保护低于人类智商的自然物种,但却敌视高于人类智商的人工物种。这一区别绝不因为动物是自然的产物,机器人是人工的产物;而是因为动物的智商绝对低于人类,机器人的智商可能高于人类。这无疑是一种机会主义。

如果我们坚守一种彻底历史进化观念,我们就要接受这样一个结局:假如人类从动物中进化出来是历史的一个巨大进步的话,那么为自然人所创造的机器人(假如它在各个方面都比人类优胜)对于世界的统治同样是历史的又一巨大进步。我们限于人类立场反对这样一个历史发展趋势是一种人类的自私,并且是无谓的。人类至上主义正像人类中心主义一样,必将为自然主义、生态主义或超自然主义、超生态主义所替代。人类也是一个物种,这个物种的存续与灭绝是由整个自然生态系统或超自然超生态系统所决定的。人类应该永远持续下去并非是一个不证自明的前提,人类持续存在的合法性和正当性有待证明。

3

三、人的策略:自然人再进化、人机并行与融合

美国著名科普作家阿西莫夫(I.Asimov)曾创作过关于机器人的系列科幻小说《我,机器人》。在小说里,他提出了著名的“机器人学三定律”:“第一定律——机器人不得伤害人,也不得见人受到伤害而袖手旁观”;“第二定律——机器人应服从人的一切命令,但不得违反第一定律”;“第三定律——机器人应保护自身的安全,但不得违反第一、第二定律”。[7]小说里面,三条定律在执行中相互矛盾,使机器人无所适从。为了解决这一问题,我国著名哲学学者李德顺在“人工智能对'人’的警示”一文中,提出“机器人第四定律”:“机器人自己不能决定时,要向人请示”。[8]其实,这些定律都是人类一厢情愿,他们还是将机器人当智能机对待,因为这种机器人是“受控”的,“执行人的指令”。

假如“不受控”机器人出现,使得自然人不是以主体对待客体的方式,而是以主体对待主体的方式对待机器人,也就是说,自然人和机器人之间的关系不是主客体关系,而是主体间关系,不是人机关系,而是跨人际主体间关系,自然人如何让机器人遵守人为法、人定法,遵守人间的伦理和法律呢?

我们知道,现有的伦理和法律是建立在人性基础上的。人性趋利避害,好生恶死。人类行为的规范化和制度化构建了人类社会的基本结构。伦理主要是以规范形式出现,我们可以把它表达为直言律令:a.你应……, b.你不应……。而法律则是以制度形式出现,制度是规范的保障,我们可以把它表达为假言律令:A.若你按应……行为,则……;B.若你不按应……行为,则……;C.若你按不应……行为,则……;D.若你不按不应……行为,则……。A与D等价,B与C等价;A、C是针对作为的,B、D则是针对不作为的。这里,符合规范的行为因得到奖励而受益,违反规范的行为因得到惩罚而受损。这也就是制度保障。通常,伦理道德是通过社会习俗、舆论维护的,法律是通过国家权威维护的。社会因集合个人力量而远远大于任何个人力量,国家不仅如此,而且通过强力凌驾于社会之上,因而远远凌驾于任何个人之上。

动物限于智商,我们无法要求他们遵守人间的伦理和法律。因此我们对待动物,可驯化者驯化之,不可驯化者或剿灭之,或监护之。

但是,当机器智商(按照功能主义定义)达到人类水平甚至超过人类水平时,我们又怎样让其遵守人间的伦理和法律呢?首先,赋予机器人存在的快乐感和非存在的痛苦感。这一点可通过模拟自然人感觉实现,使其获得满足其存在的幸福感和剥夺其存在的恐惧感。其次,将伦理规范和法律制度转换为直言律令和假言律令,编写成计算机语言,使机器人在执行技术程序时同步执行自然人的伦理程序和法律程序。但是,困难不在于每一伦理规范和法律制度的具体语境,这一点可通过程序细化或者深度学习方式解决,而在于机器人由于其自主性,不受控,修改程序。这就导致所谓人机大战, 亦即机器人和自然人的普遍战争状态。这是一个超人类社会或跨人类社会的“丛林状态”:如果机器人智商低于自然人,自然人或将取胜;如果机器人智商高于自然人,自然人必将落败。这就是许多科学幻想所反映的人类对于未来的普遍担忧。随着科学技术,尤其人工智能技术几何级数增长态势,人类感觉危险越来越逼近了!

但是,上述对于自然人和机器人关系的种种设想仍然遗漏了两个重要的可能:首先,我们不能只考虑机器人的进化,不考虑自然人的进化。诚然,在生物进化意义上,自然人已特化,亦即不再具有自然进化潜能,但却仍然具有人为进化可能,通过科学技术的手段和方法实现进化,譬如通过脑科学开发人脑所尚未开发的潜能,通过仿生学移植其他动物甚至其他生物优越感觉能力,强大体力(体能)等等。人类自身可以超越人类。其次,人机界限不是绝对的,而是相对的,是必须并且能够突破的。我们现在总体处于人机外联阶段,智能机是在外部与自然人相链接,然而现在部分处于人机内联阶段,部分身体器官可以植入机器,譬如感觉器官、肢体、内脏器官,可以设想头脑最终植入智能芯片。这样,自然人就永远不会落后于机器人,在智力上即使不会超过机器人智力,也会与机器人智力发展相同步,这样就不会被替代,也不会被淘汰。只有在这样一种技术前景下,我们才能认真考虑自然人和机器人的跨人际主体间关系,考虑双方共同适用的伦理规范、法律制度和审美标准,等等。

参考文献:

[1]梅剑华.理解与理论:人工智能基础问题的悲观与乐观[J].自然辩证法通讯, 2018, 40 (4) :1-8.

[2] 玛格丽特·博登.人工智能哲学[M].刘西瑞、王汉琦译, 上海:上海译文出版社, 2001, 56-120.

[3]阿尔文·托夫勒.力量转移--临近21世纪时的知识、财富和暴力[M].刘炳章、卢佩文、张今、王季良、隋丽君译, 北京:新华出版社, 1996, 20.

[4]经济合作与发展组织 (OECD) .以知识为基础的经济[M].杨宏进、薛澜译, 北京:机械工业出版社, 1997, 6.

[5]奥尔多·利奥波德.沙乡年鉴[M].侯文蕙译, 长春:吉林人民出版社, 1997, 193-213.

[6]霍尔姆斯·罗尔斯顿Ⅲ.哲学走向荒野[M].刘耳、叶平译, 长春:吉林人民出版社, 2000, 20.

[7]艾·阿西莫夫.我, 机器人[M].国强、赛德、程文译, 北京:科学普及出版社, 1981, 1.

[8]李德顺.人工智能对“人”的警示——从“机器人第四定律”谈起[J].东南学术,  2018, 5:67-74.

原载《自然辩证法通讯》2019年第1期

(0)

相关推荐