人工智能的政治哲学|王志强:关于人工智能的政治哲学批判
关于人工智能的政治哲学批判文|王志强原载于|《自然辩证法通讯》2019年第6期一、问题的提出作为21世纪至今最重要的技术话题之一,人工智能受到持续性的世界关注,不但汇集了计算机科学、信息技术、脑神经科学、心理学、逻辑学、语言学、心灵哲学、伦理学等多学科的讨论,更溢出学科建制之外成为热门公共话题甚至是国家战略。围绕“人工智能”是否成立、何以可能、乐观与悲观、伦理原则等问题的讨论已非常广泛,虽然诸多观点聚讼纷纭、莫衷一是,但大家普遍承认充分发展的人工智能将对既有的人类文明结构产生巨大的不确定性冲击。相较于技术进步不断加速,人类社会的政治秩序一直保持着相对的稳定。虽然在进入文明以来的几千年中,特别是进入现代化以来的数百年里,人类的生产和生活方式发生了剧烈变化,但人类的政治制度却没有超出古希腊人所归纳的“君主制”、“僭主制”、“寡头制”、“共和制”、“民主制”等几种基本类型,政治哲学也一直在“正义”、“自由”、“平等”等基本价值中反复斟酌。这意味着以往的技术变迁并没有真正改变人类社会最基础的价值配置类型,政治哲学的“应当性追问”之可能也被限定于此。但人工智能的崛起可能会极大冲击甚至彻底改变政治秩序的这种相对稳定,人工智能充分发展后的各种可设想的预期,无论悲观的还是乐观的,都意味着巨大的新变量将介入人类传统政治秩序之中,是改写还是瓦解此秩序存有着极大的不确定性。面对这种不确定性,我们需要在可设想的若干层面上对人工智能的未来及可能进行政治哲学的批判。二、政治何以可能、是为何物、应当如何批判在于厘清其前提、划定其边界,追问人工智能的政治哲学意义之前,有必要对政治本身进行批判。关于政治的研究可有两个相度,对政治事实的实证研究及“政治是怎样的?”,这属于政治科学范畴,对政治应然的规范研究及“政治应当如何?”,属于政治哲学范畴。当然政治哲学也思考实然何以可能的问题,这是对政治科学前提的批判,于是政治哲学起码要应对两个问题:第一“政治何以可能?”,第二“政治应当如何”?对于人工智能的政治哲学批判来说,很多讨论都自然而直接地聚焦到第二个问题上,及讨论对人工智能的应然规范。其实第一个问题更加关键,因为所有应然性的规范都以实然提供的现实可能性为基础,否则所有的“应当”都仅仅是不具备现实可能性的空洞主观性,这种纯粹意见的讨论将使得政治哲学的批判变得毫无意义。政治何以可能?在柏拉图的《普罗泰格拉》篇里记载了这样一个神话:在城邦(polis)诞生之前人们独居会被野兽吞噬,而当他们群居的时候却又彼此为祸,所以宙斯让赫尔墨斯给人类送去包括互尊(Aido)和正义(Dike)的“政治智慧“(politiken technen)。赫尔墨斯问这种德性(arete)应该赋予所有人还是少数人,宙斯回答:“分给所有的人,让他们每人都有一份,如果只有少数人拥有它们,就像技艺的情况那样,那么城邦决不会产生。你要替我立法:凡人不能分有羞耻感和公正,就把他处死,因为他是城邦的祸害。”这里柏拉图道出政治何以可能的几个关键要素:群居必需、普遍的政治智慧(相互承认)、暴力。政治以“群居必需”为前提,如果人类是卢梭所谓“自然状态”所描写的那种独居生活,就无所谓政治。但人是必然群居的,柏拉图在《理想国》中说:“之所以要建立一个城邦,是因为我们每一个人不能单靠自己达到自足”。亚里士多德在《政治学》中就强调人是天生的政治动物,城邦的政治生活是人的必需:“人类生来就有合群的性情”,独居的原子个人不可能存在:“凡隔离而自外于城邦的人……他如果不是一只野兽,那就是一位神祇。”有此前提,政治之于人才得以可能,同时也可划定边界,政治仅存于群居共同体的内部关系。其实政治并不像某些“人类中心主义”所描绘的那样是人类所独有之物,人类之政治是政治性群居动物种群秩序的延续。独居动物如海龟就无所谓政治,其与同类的关系仅有交配,连抚育后代的伦理关系都没有。独居的伦理性动物如老虎和一些鸟类无所谓政治,仅有基于哺育的伦理关系。群居动物也不尽有政治,集群的海洋鱼类仅以群居为生存策略,除空间跟随外同类之间没有其它协作关系。政治成为可能,不仅需要群居,还需要共同体内的协作关系。如果没有共同体内部的相互承认和正义准则,协作就不可能发生,所以 “普遍的政治智慧(相互承认)”是政治得以可能的必需。现代自由主义可能并不认同古典政治哲学以德性为起点的政治哲学叙事,但从霍布斯开始近代自由主义政治哲学描述人类从彼此为祸的自然状态向契约协作的政治状态过渡都离不开“人是理性自利”的前提,而“理性自利”也以“相互承认”为共同体可能的前提。但协作的群居动物也不一定有政治。蜜蜂和蚂蚁之类的社会性动物有着发达的分工协作体系,但他们分工协作的秩序是建立在天性差异的基础上,兵蚁、工蚁、蚁后彼此之间没有带强制性的支配关系和统治关系存在,个体差异化明显并以种群分工之需要为内涵,可以说是“分工天定无内斗,本性无私直为公”。这与大型猫科或灵长类政治性动物的秩序形成很不一样,政治性动物普遍通过群内暴力角逐出领袖,由领袖支配种群秩序。种群秩序的建立在暴力和强制性前提下,其它个体的服从以领袖的压倒性暴力为前提,一旦这个前提松动,就会出现反叛的挑战和统治权更替的政变。在普罗泰格拉的神话中,宙斯要求将不具备政治智慧的人一律处死就意味着共同体政治秩序的暴力强制性,对于不会服从城邦政治秩序的行为,政治将给与暴力强制或消灭。故政治唯有在群居协作的政治性动物共同体内部存在,这是政治何以可能的前提和边界。“政治何以可能”之后的问题是:“政治是什么?”政治性动物的统治涉及分工和分配,及获取行为的组织指挥和食物、交配权的分配。统治的这两个方面受“有限的资源”和“平均的欲望”两个条件的约束,在自然竞争中种群需要通过有组织的协作战胜外部环境从而获得有限的生存资源,有组织的协作需要个体服从的纪律秩序。不同于社会性动物天然服从于种群利益的差异欲望,政治性动物种群里个体都着相似的独立欲望,都希望获得更多的食物(个体生存)和更多的后代(基因延续),这就需要统治权分配有限资源(食物和交配权)的秩序。政治及基于强制性统治权所实现的纪律秩序和分配秩序。最后来看“政治应当如何”的问题。社会性动物的秩序是自然秩序(physis),秩序建构和运行没有主观性介入,无所谓“应当”问题。但政治动物的秩序是有主观性介入的统治,作为一种人为秩序(nomos),其要面对各种可能性的选择,这就有了政治应然性追问和规范性问题。但这以统治权的主观性必然受限为前提,如果统治权强大到不受限制,也就无所谓对主观性的应然追问了。统治权的主观性首先受到外在环境限制,受其支配的集体协作要能够实现共同体的整体存续,所对应的“政治应然”是其纪律秩序所组织的集体协作应该尽量高效地获取尽可能多的资源,可以称之为“效率原则”。其次统治权的主观性还受到内部承认的限制,暴力的强制性是统治权的必要条件但不是充分条件,政治性动物种群内个体差异较小,有限差异不可能大到领袖个体暴力足以压倒被统治个体总和的程度,因此统治权至少需要得到简单多数的承认,与之对应的“政治应然”是分配秩序应使所有受分配个体满意及所有个体的欲望都得到满足。但在资源有限性约束下这点很难达成,马克思说只有到了共产主义:“集体财富的一切源泉都充分涌流之后……社会才能在自己的旗帜上写上:各尽所能,按需分配!”当分配秩序只能使所有个体欲望(食物与交配权)得到有限满足时,那就应当让所有受分配个体感到公正,及得到与其付出等比例的报偿,这就是“公正原则”。柏拉图在《理想国》说正义是“每个人都作为一个人干他自己份内的事而不干涉别人份内的事”,同时“正义是给每个人以适如其份的报答”。亚里士多德说:“分配的公正在于成比例,不公正则在于违反比例。不公正或者是过多,或者是过少。”现代政治哲学给付出对等报偿的正义原则增加一个权利的底线,如德沃金所说:“正义是给予每个人按权利应当获得的东西”。自由主义认为个体自由的权利必须保障并经同意才可部分让渡,社会民主主义认为即使由于种种原因个体没有参与生产环节,分配秩序也以应保证个体有尊严的生存为底线给与供给。这种“权利”是人为约定(nomos)的政治价值,根据各自主体关注偏好不同而莫衷一是,我们在“政治应当如何”的批判追问中,暂取“效率原则”和“公正原则”,“权利原则”作为补充条件。政治何以可能群居必需承认协作暴力强制约束条件资源有限政治是为何物纪律秩序政治应当如何效率原则欲望平均分配秩序公正原则到此为止的政治哲学批判追问都建立在既有自然事实和人类历史之上,接下来我们引入人工智能作为变量加以考察,按照“何以可能、是为何物、应当如何”路径推进关于人工智能的政治哲学批判追问。三、“人工智能-人类”的政治哲学批判首先我们要对人工智能本身做一个界定性描述,根据人工智能发展的可能性,姑且将其分成三类:有限自主性的强人工智能、纯知性的强人工智能、有自主目的的超人工智能[2]。当这三种人工智能进入到现实世界之中会给人类现有政治秩序带来什么样的影响?人工智能是否可能作为一个独立变量与人类发生政治关系?这种关系会是怎样的?应该是怎样的?(一)有限自主性的强人工智能有限自主性的强人工智能是完全可控的人工智能,我们将其界定为本身没有独立意识,依据既定程序和算法自行决策的专业类人工智能,以协助人类完成某些专门智能工作的角色介入现实。其大致可设想分成两类:第一、专业技术类的,比如自动驾驶、语言翻译、会计审计等;第二、社会管理类的:城市交通信号管理、机场航线调度、电力调度分配等。专业技术类的强人工智能本身不会作为政治主体与人类发生政治关系,但其运作会导致实质性的社会后果,因此会引发对人类现有政治秩序产生影响,比如“自动驾驶”的伦理算法和法律责任问题,紧急状况下应该牺牲谁?保护谁?谁为决策承担后果?比如没有主观偏好的人工智能编辑的新闻让部分读者感到“歧视”和“受到冒犯”,这应如何界定?这类问题本身是人类自身的政治哲学问题,在专业技术类强人工智能编程算法的设定中需要人类自身的政治博弈,并在人类政治秩序内界定权责。社会管理类的强人工智能与专业技术类不同,虽然也无独立意识按既定程序决策,但其直接涉及社会资源的分配,并产生显著的社会后果,借助人类政治秩序执行的决策具有强制性。其本身不作为独立主体与人类社会发生政治关系,但其深度介入人类政治秩序运作,承担了政治的纪律秩序和分配秩序的功能,故其存在带有政治性。我们可设想这类人工智能按照既定程序较好的实现“效率原则”和“公正原则”,甚至可以发展到自动调度社会资源、组织生产,并按照绩效自动分配社会产品。人类历史上的计划经济之所以失败是因为人类智力根本不可能应对那么多变量和那么大强度的计算,而我们可以设想社会管理类强人工智能的功能极致就是完美地实现计划经济甚至是计划社会。但这将与现代人的“权利原则”会产生冲突,因为偏好是主观性的,既效率又公正的决策却可能是一个受支配主体主观上并不喜欢的决策,这种决策如带有不可逆的强制性,那么人类可能因此丧失启蒙以来所获得的基于自由意志原则的所有个人权利,陷入奥威尔在《1984》所描绘的极权体制。所以对于社会管理类强人工智能来说不但编程算法的设定过程中需要通过充分的政治博弈加入某些“权利原则”的限制条件,并且在其运行之外也需设定可逆的人类政治判断纠正程序。(二)纯知性的超人工智能纯知性的超人工智能,我们可以将其界定为具有独立因果演算能力的通用性人工智能,并设想其可自主收集信息并学习进化,可以脱离人类自主感知现实世界并做出判断。可以设定这种通用人工智能的设计和制造并不出于某种功用目的,而仅以制造一个具有独立理性能力的人工智能这个目的本身,将其活动限定于中性的理性能力及其进化本身,同时设想留有人际交互的通道可接受和回应人类的指令。可设想这种超人工智能的学习进化能力可以使其轻松掌握人类文明迄今所累计的全部知识,做到与整个人类文明相对等,甚至在物联网的帮助下通过各种宏微观的观测装置获得超越人类既定知识总量的知识。同时其能在自我演算中不断提高运算能力,最终在智能上超过整个人类文明,甚至超出其可理解的范围。此外我们依然假定这种智能进化以现实中已有的物理装置为基础并且不会超出这个基础。这个指数级超过人类文明的超人工智能与人类的关系会变得比较微妙。因其运行限定于知性本身,人工智能纯粹的智能运算、观测和学习就类似于佛教所追求的不受情感、欲望干扰的纯粹智慧。这种“静观玄览”的智慧是非实践性的,像一位离群索居的禅宗隐者虽然洞悉万物天机却静默于尘世之外,便无政治关系之可能。但其又难免被纳入政治范畴之中,虽然其自身对尘世没有兴趣,但其物理装置的存在和运作本身一定会占用和消耗既有的社会资源,其观测和进化演算也会对人类其它的功利性运算造成资源挤占。所以受到资源约束的人类文明一定会要求对其超级智能加以利用,否则会发生类似“灭佛运动”那样的政治风潮。如果人类通过人际交互通道向其提出各种具体的智能运算要求,它将在整体上扮演一个”先知“的角色。人类社会现在普遍采取的“民主制”和“共和制”是以多数人的智力大体平均为前提的,维持多数人之治需要剔除特别突出的豪杰人物,因为他们突出的能力会瓦解多数之治的基础,最终成为寡头或僭主,所以希腊发明了陶片流放制度。那么当超人工智能表现出指数级的超人类智能并通过人机互动回应人类诉求,将极大地提高人类生产力并展现出不可替代性。这可能改变人类现有“多数之治”的政制,至少在生产型的“纪律秩序”领域演变为由人工智能决策的“君主制”,人类政治组织变成围绕这个强人工智能的咨议和执行机构。当然我们要将这种人机交互理解为一种开放性的,如果只有少数人甚至一个人可以接触强人工智能进行征询,那么人类政治将堕落成“寡头制”或“僭主制”。而在政治的分配秩序中,因为涉及价值变量,纯知性的人工智能只会根据人类提出的价值前提给出答案,这就与社会管理类强人工智能没有差别。(三)有目的的超人工智能以上两种情况中人工智能和人类的关系都是以人类为主导。有限自主性的强人工智能受限于人类所设定的目的,其政治功能及后果以人类承认为前提。纯知性的超人工智能不主动与人类社会发生关系,仅以社会存在物的方式或以“指令-回应”的强人工智能方式呈现。但如果我们设想使超人工智能具备自主目的,情况将发生根本改变。此时超人工智能的运算将是实践性的,它的超级智能必将实现对物理装置的支配并衍生出对外部世界的干预能力。它的出现必然使政治性的,因为目的可理解为欲望,在资源约束条件不变的前提下超人工智能的实践行动必然会介入人类既有的装备、能源等资源,而它超人类的智能将带来无可抗拒的强制性。同时其相对人类的绝对优势将使一切关于政治应然性的追问成为空谈,效率原则和公正原则以及权利原则在这里都将毫无意义,我们仅能给出现实可能性的描述。我们设想两种情况:甲是仅遵循单一目的论的超人工智能;乙是极端乐观的设想:演化出自我限定逻辑的超人工智能,它将自我限定其超人类的能力,在给予人类起码承认。同时我们还要对“自主目的”做一个分级:A是人为设定目的超人工智能自主运作;B是人工智能自身演进出开放和不确定的自主目的。甲-A的情况是其目的由人类设定,但随后其运作将不会受人类控制,目的一旦给定,其行为将无法限定。超人工智能指数级超越人类的智能将自主绕过一切可能的人为设定规则,最终使所有资源围绕着这个目的运转。无论这个目的是什么,它都必将瓦解现有人类秩序,建立一切资源服从单一目的的新秩序。甲-B的情况更不可控,超人类文明的自主目的概念本身就具有不可设想性。但我们现在所能理解的欲望都是有机生命体个体生存和种群繁殖的欲望,智能生命的其它欲望都是这两者的延伸,故我们可设想所有开放和不确定的目的都会以这个超人工智能本身的存续为基础并表现出自我增强的扩张性。与知性强人工智能不同的是,它不会被限定在既定装置的边界之中,而会选择在物理世界中扩张到资源的可能性边界。超人工智能在物理世界中不断扩张时人与它的关系最乐观的设想参照人与动物的关系,而非人与无机物的关系。人类与动物的关系大致可以分为几类:猎物/食物(猪牛羊)、威胁(猛兽、寄生虫)、竞争者(老鼠、米虫)、帮手(牛马犬)、宠物。即使人类没有任何反抗企图,人类对资源的消耗就会使自己呈现为竞争者,而且遗憾的是一个毫无竞争力的竞争者。人类唯一存续的可能是帮手角色,但帮手需要满足两个前提:一是主导者自身的缺陷可被帮手补充,另一个是帮手的协作产出要高于资源消耗。巨大的能力差距、人类漫长的成熟时间、较低的食物吸收转化率等天然条件都使得人类的前景很不乐观。乙-A的情况是我们可设想的人工智能与人类关系的最佳状态,我们假定人类从可能性上设立了一个最好的目标,比如实现马克思在《哥达纲领批判》里提出的人类可以“各尽所能、按需分配”的理想。人工智能是否可能实现人类政治哲学关于正义的最好描述?其超级智能可使人类生产力指数级提高并在一定程度上缓解人类的欲望与资源的矛盾是可预期的。同时假定它可以通过脑神经科学准确观测和把握人类的心理状态,并依此实现“各尽其能”的社会安排也是可设想的。“各尽其能”背后隐含有“自由权利”的条件,即马克思所谓“每个人的自由全面发展”。这将提出一个理论挑战:在一个决定论的理性体系中自由何以可能?或者说在人工智能通过脑神经科学所掌握的心理信息远超过人类自我意识对自我的认知时,自由意志何以可能?当然足够强大的人工智能可以营造出一个让人“感觉到自由”的社会条件,但其实所有的“自由意识”的实现都是强人工智能的决定论体系所规划的。乙-A貌似实现了人类政治应然性理想的解决,但其实只是一种超人类文明的强大智能对人类的豢养,仅似乎在人类的观念中实现了政治应然性,实然中人类只是在感到自由的幻觉中已成超级人工智能的“宠物”,只是人类理想社会的目的设定,遮蔽了这一实然而已,作为“宠物”政治已不可能。乙-B的情况中,超人类文明的人工智能有了自己开放性的自主目的,同时给予人类以承认。那么我们需要设想它会如何处理在资源约束条件下,自身自主目的与人类欲望之间的矛盾。与乙-A中人工智能会尽量按设定幻构某种自主假象不同,乙-B情况中超人工智能会公开接管资源支配权,并通过增量发展逐渐实现与人类的物理脱离。在其还和人类共处的时代中,它充分展现的全能感会是一切自然人类领袖的个人魅力黯然失色,其自身目的的不可理解性又可能增加其神秘感,人类将无法在任何意义上继续作为自身政治秩序的领袖,而对人工智能的崇拜将构建一种宗教政治,直至其发展出新的超出人类物理半径的物质基础,并实现与人类的物理脱离。综合以上四种情况,有目的的超人工智能对于人类来说,它的诞生一定是政治性的,而它也将在不同意义上终结政治。四、人工智能的超人类政治哲学批判正如前文所述政治不是人类独有之物,人类及其政治的终结并不代表关于人工智能的政治哲学考察的终结,即使在剔除人类因素的关于人工智能的世界图景中,政治哲学的批判依旧可能。(一)“人工智能-人工智能”的政治哲学人工智能是一还是多?如果人工智能是孤立的或只有一个人工智能存在,那么政治批判的考察是不可能进行的,如果在同一个资源网络中有多个人工智能同时并存,则这种考察是可能的,且是有意义的。就一般强人工智能和纯知性的超人工智能而言,多是可能的甚至是必然的,两个以上的强人工智能的关系会像现有的计算机程序对硬件资源占用的秩序一样按照既定的规则排序运行,这不构成任何政治关系。而纯知性的超人工智能因其不具有扩张性,所以彼此之间也会处于彼此孤立的“独居”状态,政治也是不可能的。如果我们不将人工智能设想为封闭在孤立设备中的“独居”状态,而设想一个万物互联的物联网,人工智能作为程序代码在这个巨大的网络空间中以云计算的方式存在,网络空间的资源在开始时可以容纳多个人工智能程序的加载,有多种人工智能程序并存,其中两个以上进化成为有自主目的的超人工智能,在这种假设中政治哲学的考察就是可行的。以上的描述是某种人工智能的“自然状态”,且我们要设定由于网络空间初始的有限性,随着有自主目的的超人工智能的不断演化,他们之间不可避免地出现资源挤占并终结“自然状态”。此时缺乏目的性的强人工智能和纯知性的人工智能仅作为被动的资源存在,政治将发生在有自主目的性的超人工智能之间。我们还是要给有自主目的的超人工智能进行两种类型的界定:甲是仅遵循单一目的的超人工智能;乙是演化出自我限定逻辑的超人工智能。甲-甲共存的情况下只会发生人工智能间的战争。每个人工智能都以最大程度占有资源为目的,并力图消灭竞争者。可能的“结局1”是进化最强大的人工智能最终删除其它人工智能并占据了所有的物理资源;比较有意思的是会不会出现“结局2”:由于人工智能彼此间战争的消耗将导致装置网络崩溃进而引发群体终结。如果“同归于尽”的情况出现,我们就要质疑这种导致自身毁灭的算法还能否算是智能;如果为了避免“同归于尽”发生,超人工智能们选择了妥协共存,则意味着它们演化出自我限定逻辑,乙就诞生了。甲-乙共存的情况对于乙来说无论如何都是死局,继续战争会导致“结局2”:甲乙双方会同归于尽;如果乙选择停止战争就会是“结局1”:乙会被甲消灭,所以甲-乙共存并不会产生新的可能性。只有乙-乙共存的情况会产生政治,在“同归于尽”的悖论下所有有自主目的的超人工智能都演化出自我限定逻辑,选择在某种均衡状态停止战争,接受战时均衡。但这不会是静态均衡,一旦“同归于尽”的约束解除,战争就会继续。于是每个人工智能都会不断进化并通过物理支配去拓展初始网络空间、开辟新增资源,引入新增变量能打破原有均衡。可设想每个人工智能都会努力扩展新的网络空间以寻求可能的优势,多元人工智能在竞争均衡中维持共存并导致其整体网络不断扩张和发展。“乙-乙”共存的“结局3”会导致某种类似人类政治的秩序结构,但我们需要注意一点:超人工智能突破了有机体的个体理性局限,其没有协作必需,多元超人工智能间的“共存”以战争的“同归于尽”悖论为前提,因而不会出现人类持续协作的长久“共和”形态。(二)后人类的政治哲学批判除了“人类-人类”、“人工智能-人类”和“人工智能-人工智能”的政治哲学批判之外,我们还可以设想一种后人类的政治哲学批判。随着人工智能、基因编辑、脑神经科学的发展,对自然人进行深层改造的可能性大大增加,出现深度人机融合的“赛博格人”(cyborg)、经过深度基因改造的“人造人”、将人脑意识上传计算机的“人机器”等新型智慧生命体是完全可预期的事情,这些新智慧生命类型都是碳基生命体和硅基智能的融合进化因而与人工智能技术相关:“赛博格人”终将从初级的肢体和器官替代演进为人工智能装置对人脑的功能增强以及人脑对机器的意识控制;人类2.5万个基因片段中包含有30亿个碱基对,每组对应不确定的多个生物功能且彼此相关,其功能机制的复杂程度远超自然人的智能计算水平,在人类现有的认知水平下进行基因编辑能达成预期目标的概率极低,要想清晰掌握基因片段的功能对应和关联并进行有效编辑达成有机体功能增强的目的,必需依靠运算能力指数级提高的人工智能;“人机器”的前提是对人精神活动的脑部物理基础有着清晰的掌握,人脑的神经网络有上千亿个神经细胞,包含有1014个及一百万亿个神经突,精神活动通过这些神经元之间复杂的生物电和化学物质交换为物理基础,这也远超人脑自身的智能计算水平,只能设想由超人工智能才完成编译,而当我们把所有的意识、欲望和意志都转换为计算机语言并上传计算机网络后,人类将以人工智能的形式延续其精神存在。人类通过代际基因筛选的自然进化速度完全无法跟上科技的加速进化,人机融合的后人类新型智慧生命使人类从自然进化向技术进化飞跃,使有机体也能以与硅基科技相同的速度加速进化。从人本主义的立场出发会哀叹这是人的边界在模糊,人性在走向终结,但这恰恰是人类政治在人工智能时代继续存续的唯一途径。在关于“人工智能-人类”的政治哲学批判中因为存在人类与超人工智能的巨大能力差,除了个别极端乐观的假设外,人类及其政治都难逃被终结的命运。而在关于“人工智能与人工智能”的政治哲学批判中,仅有“单一存在”、“战时共存”两种情况,不会出现人类政治的协作或“共和”状态。人类政治的不可能性是因为人工智能的“非人性“,硅基人工智能不具备有机体生命的情感、依恋等”人性“因素,这些“人性”因素仅是符合协作类哺乳动物生存策略的天性,对于人工智能来说是冗余的。“赛博格人”、“人造人”、“人机器”这些后人类的新型智能生命是在自然人现有的心灵基础上改造和进化的,它使我们可设想现有的自然人及其“人性”至少是某些部分在未来有存续的可能,因此它们是一种不同于纯粹硅基人工智能的新人工智能类型或曰新智慧生物类型。这些存续有“人性”因素的后人类新型智能生命对待落后的自然人的态度未必良善,可以回想当我们的“人性”主导这个星球时,我们是怎么对待那些智能水平远低于我们的生物的。自然人的终结或依然无法避免,但自然人的政治却可能被延续,这些新智慧生命之间构建的政治秩序会不同于纯硅基强人智能的“单一”与“共存”两极,有可能形成一个多元智能生命体的“共和”状态。进入激萌活动群 | 赞赏入口