浅谈人工智能的法律地位

​内容摘要

关于人工智能的法律地位,学者主要持客体说和主体说两种,也有学者持折中说观点。主要从三派学者的观点入手,通过对学者观点的整合分析,并以此为视角阐述人工智能的法律主体地位的原因和制度设计,以期能支持人工智能的法律主体地位。

随着人工智能的不断发展,其在社会生活中所处的地位愈加重要,人工智能法律地位的讨论愈发激烈。关于人工智能的法律地位是主体说还是客体说的争议,不同的专家学者对其有各自的看法并进行了相关的论述。笔者旨在通过对现有几位学者关于人工智能的法律地位争论观点的分析整合,阐述人工智能的法律主体地位的原因和制度设计,支持人工智能的法律主体地位。

一 学界目前理论

(一)

客体说

1

工具说

人工智能是法律关系客体,不具有法律主体地位,是客体说的主要观点。其具体划分根据所持理由的不同有所区别,本文主要涉及工具说,软件代理说和道德能力缺乏说。

该说认为人工智能本质是工具,是人创造出来的,目的是为人类服务,其不能成为法律关系主体。在涉及人工智能的法律问题中,对于其致人或物损害的问题,可以适用产品责任的归责原则。也即在人工智能领域,涉及的追究责任的主体包括所有参与人工智能产生、设计和使用的主体。当然,该学说存在着局限性。第一,工具说针对的是当下弱人工智能提出的,缺乏与人工智能不断发展相匹配的思考,这也是客体说的普遍问题。第二,该学说无法对已经获得国籍或者户籍的人工智能现状进行合理化解释。第三,产品责任的归责原则可能会对生产者、使用者等的积极性产生影响。

学者认为首先从哲学基础与法理根据两方面分析法律主体,认为法律主体需具有理性以及实体性基础、实益性基础和法技术基础三方面,否定人工智能具备成为法律主体的哲学和法理依据。之后,对人工智能的法律地位进行主体地位的否定和客体地位的合理性两方面的分析,以肯定人工智能的自主性,但是,出于对人工智能的规制的需要,需得从法律上认为其是法律上的特殊物而赋予其法律客体地位。

2

软件代理说

该观点认为人工智能是软件代理,不具备法律主体地位,只起到中间的媒介功能——传递信息。其具有和工具说相同的局限性,也就是没有看到人工智能不断向上的发展趋势,尤其是在人工智能 具有深度学习和类人化神经元思考能力之后,其自身的算法已不是单纯的软件所能替代的。

3

道德能力缺乏说

该学说认为人工智能是法律客体的原因在于其定义了法律主体地位的特征,也就是,只有具备道德认知能力的人才具有法律主体地位。然而,要知道,“道德主体必然为法律主体,但法律主体未必 是道德主体”,二者存在根本不同。既然人工智能由人类创造和设计,如果人类在创造过程中将“道德能力”的相关算法内置于人工智能之中,使得具备遵守道德规范的能力,是否还可以以人工智能的道德能力缺乏而否认其法律主体地位就有待商榷了。

(二)

主体说

1

代理人说

该学说认为人工智能处于代理人的地位,代理人是法律关系中的主体人,也即人工智能具有法律主体地位。换而言之,人工智能的“所有者”,可能是用户也可能是操作者,其与人工智能是法律代理关系中的被代理人与代理人的关系。当代社会,欧盟的法律提出“非人类的代理人”的概念。俄罗斯的法律中,提出了“机器人-代理人”的概念,也就是赋予人工智能法律地位,规定其对财产拥有的自主权利,可以对属于自己的债务负责,进一步说,其在法律上被赋予了民事权利和民事义务。

2

电子人格说

电子人格说支持人工智能具备“电子人”地位,也就是说人工智能具备法律人格,其人格是电子人格。欧盟议会法律事务委员会在2017年其向欧盟委员会提交的相关报告中提到,从长期发展的角度为人工智能创立独特的法律地位,最起码应当将具备“自主性”的机器人承认其“电子人”地位, 使其承担与行为性质相适应的损害赔偿责任,所谓“自主性”是指人工智能自主决定或者与自主决定相类似性质的行为引发的案件。

我国学者郭少飞也持此观点。该学者通过对人工智能时代的人机关系的分析,厘定“电子人”的概念,并从法律论证和法外考量两方面对“电子人”法律主体地位进行阐述。其对“电子人”主体的法律论证包括实践基础、法史基础和本体分析三部分;在经济、社会、文化、伦理、哲学等多方面对“电子人”主体进行法外考量,从法律的历史、人工智能的本身、现实以及社会生活的主要方面,充分肯定人工智能在电子人格定义范围内法律主体地位的现实性和可行性。

3

有限人格说

该学说基于人工智能并不能完全承担责任的地位和能力的认定,认为其具有“有限”人格。也就是有限人格说肯定人工智能具备法律主体地位,但是其地位存在有限性。这就涉及进一步对“有限” 一词进行分析和界定,明确人工智能法律人格有限性的所在。

学者袁曾持有限人格说的观点。学者首先对人工智能的法律人格规制缺位现状进行了阐述;其次从人工智能的法律主体特殊性、法律权利和法律责任三方面肯定其法律人格;进而,又通过对人工智能相关的域外立法分析、适用特殊的法律规制标准以及责任分配侵权规制三方面明确人工智能法律人格的有限性;最后对人工智能的有限人格进行归责、防范风险、监管和立法方面的规制设置。

4

人格拟制说

该学说认为应通过法律拟制赋予人工智能与胎儿一样的法律人格。但是,法律拟制在无立法予 以确认的前提下,在现行法的框架之内,人工智能的法律主体地位不能确定。

学者杨清望,张磊持法律人格拟制说。学者们首先从历史和现实两个角度阐述人工智能被赋予独立法律人格的必然性,同时从四个方面阐述人工智能被赋予法律人格的必要性:第一,人工智能已经是一种“真实”“独立”且“自主”的存在。第二,人工智能具有独立自主的行为能力和责任能力。第三,有效管控人工智能风险的必要手段是确定人工智能法律人格。第四,人类出于自我权利保障目的,人工智能应当被赋予法律人格。之后,从人与人工智能天然不平等关系、人工智能的“应用”路径和人工智能承担有限的法律责任后果三部分论证拟制法律人格是人工智能法律人格的定性与定位。最后,提出了对人工智能法律地位的立法建议,包括:法律拟制法律人格;参考法人设立建立登记备案制;承认人工智能的有限责任。

(三)

折中说

折中说认为需要区分人工智能的强弱程度,弱人工智能与法律客体相适应,强人工智能则赋予法律主体资格。

学者彭诚信,陈吉栋持该种观点。学者们首先肯定人工智能的法律人格,并对有关学说进行了介绍。之后阐述了人工智能法律人格的应然考量因素,包括实质性要件和形式性要件两部分,所谓实质性要件也就是意志能力和物质性要件,所谓形式性要件也就是符合法律的认可原则。最后,对人工智能法律人格在现行法以及以发展的眼光对待的未来立法两方面进行具体阐述——我国现行法中,学者们认为应将部分弱人工智能认定为权利客体,再对部分符合一定条件的强人工智能肯定其法律主体地位;对于未来立法,需要确定人工智能的法律主体要件以及制定“人工智能发展法”。

二 学者观点分析

通过以上分析可以发现,学者们对待人工智能法律地位的态度,不论是持客体说的观点还是持主体说的观点,大多从三个方面对人工智能的法律地位进行阐述。第一,人工智能是否具有独立性和自主性。第二,人工智能是否具有自主独立的行为能力和责任能力。第三,人工智能法律地位的确定——主体资格或者客体资格——是对人工智能风险进行控制的必要手段。

以上述几位学者的观点为例,持客体说的学者的看法是,首先,独立性和自主性是人工智能所不具备的,其认知能力具有有限性,不可能成为具有自我意识,深谙自身目的的理性主体。人工智能通过算法认识事物,而算法本身由人类设定或者人类推动其生成,其对世界的认知很大程度上局限于此,不具备独立性。尽管人工智能有超强的学习能力,但这能力也受制于算法,人工智能依据算法行事,围绕算法进行活动,用以达到人类对其预设的目的。其次,人工智能不具有独立自主的行为能力和责任能力。如上所说,人工智能不具备独立性和自主性。同时,人工智能主体地位并不能解决人工智能创造出的物的归属,也不能解决人工智能损害赔偿责任的承担。有观点认为,人工智能行为是其主体的法律行为要件,而其主体包括人工智能的研发者、制造者以及使用者等。换句话说,人工智能是其主体借助的工具,是其主体行为的延伸。而将人工智能的损害赔偿责任分配给人工智能的法律人格,为相关责任人规避责任提供了机会,可能会造成投机行为等不良后果。更为有意思的是,人工智能并没有独立的财产,其怎么能承担法律责任?最后,确定人工智能的法律客体地位是有效管控人工智能风险的必要手段。当所处地位不平等时,就会产生剥削和压迫,就像人类刚刚进入资本时代时,工厂主和雇佣工人地位不平等,双方无法实现平等的意思自治,而超人工智能与人类并不处于一个级别。也就是说,人工智能的智力越强,其所蕴含的风险越大,如果不加以控制,其所产生的后果不是我们所能承受的。

与客体说相对立,持主体说的学者认为人工智能的独立性和自主性是其首要特征。人工智能最初即使是受人类的算法控制,其在运行过程中也产生了自主性和独立性。“自主是一种不受外部控制、能够自我决定并付诸行动的独立状态”。随着科技的不断进步,人工智能在分析问题与解决问题的过程中,其本身技能的进步,学习能力的增强,涉足的范围的扩展,面临问题的复杂,其解决问题的方式更加不可控制,甚至超越其本身的设计者的想象。其次,人工智能具有独立自主的行为能力和责任能力。如上所说,人工智能具备独立性和自主性,其在自主运行过程中的自我思考和自主学习,具有一定的主观能力,充分体现了其行为能力。而对于其承担责任的责任能力,有为人工智能强制投保责任险和设立人工智能储备基金两种路径选择,降低人工智能生产和使用过程中相关责任承担的风险,提高其对人工智能研究的积极性以及人工智能独立承担风险的能力。最后,人工智能风险需要由赋予人工智能法律人格,予以有效控制。新鲜事物的出现必然会对原有的社会生活和社会秩序造成冲击,而人工智能的出现将人类从很多生产生活领域的劳动中解放出来,极大地改变了人们的生活,这必然会引起对传统社会伦理道德和社会秩序的冲击。所以,需要将人工智能纳入统一的技术和伦理规范体系之中进行规制,并建立相应的法律制度机制来降低人工智能可能带来的风险和危害,而这一切的前提是赋予人工智能法律人格。

围绕着对人工智能法律地位的考量,不同观点的学者看待问题的角度不同。其一,针对人工智能的独立性和自主性,客体说的观点倾向于人工智能的工具性更加明显,即使看起来是具有独立性和自主性,但归根究底仍是人类创造的产物。而主观说的观点则倾向于人工智能即使是人类创造的产物,但其由于自主运行和自主学习,已经产生不容否认的独立性和自主性。其二,针对人工智能具有独立自主的行为能力和责任能力,不可否认的是,第一个问题的解释直接关联第二个问题的答案。客体说的观点从假设如果赋予人工智能法律主体地位出发,分析得出其并不能解决现存的关于人工智能的相关法律问题的角度,对该问题予以否认。而主观说则为人工智能能承担责任而提出了多种解决方式,从结果成立反推前提成立。其三,对于人工智能风险控制的不同观点,充分体现了客体说和主观说价值观的核心,人工智能的发展是一把双刃剑,如果控制不好,对人类来说,其带来的后果无法预料。从目前的情况来看,大数据时代,人工智能的法律风险存在于个人信息保护、法律伦理、侵权以及刑事犯罪等领域。除了法律风险之外,还存在着道德风险。客体说认为需要对人工智能的发展持高度警惕态度,认为需要对其的法律地位予以客体化确认,对其进行控制,以防人工智能能力的发展过于迅速,以至于超出人类的预期,造成人类反被人工智能控制的糟糕境遇。主观说的支持者则认为主体制度本身是一种价值判断,主体资格承认的多元化,最终都是对人格自由的尊重,人工智能的发展程度我们无法预料,如果我们希望未来人工智能能够善待人类的话,那么人类应该出于“拥有同情与关爱之良善本性”的善待人工智能。从上述分析可以得知,对于人工智能的法律地位的认定,更多的是一种价值判断和倾向选择。

三 人工智能的法律主体地位

人工智能对海量数据的汇总、整合、分析和学习,尤其在我们正处于大数据时代的背景之下,越发促进了人工智能向强人工智能的发展,为其法律主体地位的确定添砖加瓦,量变产生质变。

对现有人工智能法律地位观点的梳理以及几位学者观点的分析,笔者认为应当赋予人工智能法律主体地位。笔者通过对人工智能具有法律主体地位的原因和对相关制度设计两方面,阐述人工智能的法律主体地位的正当性和合理性。

(一)

原因

1

现行法律缺乏对人工智能法律地位的指向性态度

随着人工智能的不断发展,目前官方政府和相关组织未对人工智能的法律地位予以明确肯定或 者否定,这在一定程度上激发了对其地位争议的同时,也使得其发展欠缺法律价值的指引。“人工智能的短期影响取决于谁控制人工智能,而长期影响则取决于人工智能到底能否受到任何控制,人工智能的运用与发展需要法律人格的明确。”而人工智能的法律主体地位必将随着其发展而被肯定,这符合社会历史发展的客观规律。以法人为例,团体的形成远早于法人制度被法律拟制为法律主体地位,而其之所以没有在刚出现的时候即被承认主体地位,是因为其发展还不够成熟,人类需要通过时间来适应其产生、发展及演变过程中对传统经济、法律制度和社会伦理的冲突,通过恰如其分的方式明确其法律地位以及在实践中不断完善相应的具体制度。不能否认,人工智能的发展过程会与法人制度的形成在一些方面有相似性,但是,如果承认人工智能的法律主体地位,也即在现行法律上承认了非人类的主体地位。这与法人制度有所不同,法人之所以定义中称之为“人”,还是于法人由自然人组成,其决策还是由自然人做出相关。

2

现行法律法规对人工智能法律地位未加以确定

法律客体说和法律主体说对人工智能的法律地位各执一词,尤其突出的是,如果人工智能确定 为法律客体地位,其做出的出于自我判断的行为后果是否能单纯的归属于产品责任归责原则;而如果人工智能确定为法律主体地位,其的规制能否与现行法律体系逻辑和传统伦理社会相适应。新事物的产生、发展和完善必将对传统的制度和价值产生冲击,二者可能的相悖只是一时的,在新事物的发展势不可挡的前提下,因为不相匹配产生的法律问题总是要由法律解决,出于解决的需要,法律体系逻辑和社会伦理将逐渐与之相适应。

3

欠缺人工智能的发展匹配的具体规则

智能法律地位学说的研究中,每个具体学说的局限性都不能逃脱缺乏具体规则限定的樊笼。不同学说下,对人工智能的损害赔偿问题等没有确切的规定,即使是在支持赋予人工智能法律主体地位的学说下,对其具体规则的规制,比如说其是否具有独立财产,怎样具有独立财产也有所欠缺。如果力图使理论与实际相匹配,就需要通过具体的规则解决学说的概括性和抽象性问题,既与人工智能的发展匹配,又与社会生活的发展相匹配。

4

人工智能的法律主体地位通过现实实践予以肯定

近年来日本的宠物机器人获得户籍;美国承认自动驾驶汽车中的自动驾驶系统的“驾驶员”地位;沙特政府授予“女性”机器人公民身份。种种国家的举措和法律文件的现状表示,虽然目前各国未承认人工智能的法律主体地位,但一些国家已经承认人工智能的主体地位,笔者相信,承认人工智能主体地位的范围还会继续扩大。

以上,笔者从法律和实践的不同角度,通过现行法律缺乏对人工智能的法律地位的指向性态度、对人工智能的法律地位未加以确定、欠缺与人工智能发展相匹配的具体规则以及现实中人工智能的法律主体地位的确定四方面说明要赋予人工智能法律主体地位的原因。

(二)

制度设计

1

人工智能财产要件的实现路径

人工智能是否能够承担责任,与其是否独立拥有财产密切相关,而人工智能无法独立拥有财产也是法律客体说否认其主体地位的重要理由。人工智能独立拥有财产,目前有两种方式:第一,是保险制度。通过为人工智能投保强制责任保险,使得每个人工智能都具有保险,当人工智能需要承担责任时,以保险金额进行支付,其他人工智能的生产者、设计者、使用者等不用承担应负责任之外的责任。第二,是储备基金。该基金的适用对象是不太可能造成重大生命和财产损失的人工智能,意外发生事故时,用人工智能储备基金作为获得赔偿的某种方式。

需要注意的是人工智能独立承担责任与其生产者、设计者、使用者因其算法或者使用等原因造成的责任不相冲突,因为人工智能的独立运算和决策所造成的超过其生产者、设计者、使用者预期造成的责任由人工智能独立承担;而因人工智能生产者、设计者、使用者因其算法或者使用等原因造成的责任则由相应的责任人承担。

2

法律风险防范机制

人工智能主要分为弱人工智能和强人工智能两类,而弱人工智能由于不具备自主性,与法律客体说相符,通过现有法律可以区分具体情形,解决其造成损害的责任分配问题。而强人工智能则具有不断加强的自主学习能力和逻辑运算能力,推动人工智能向着类人的方向发展,法律风险防范机制主要针对强人工智能,当然也不能说弱人工智能完全不需要防范风险。

人工智能法律风险主要涉及个人信息保护、法律伦理、侵权三个方面,下文主要从这几个方面分析防范机制。

首先,人工智能的发展与大数据密不可分,而针对个人生活习惯和生活信息的精准化、个性化服务则是人工智能的发展方向之一,这本身就存在着极大的安全隐患。这需要从个人信息范围的界定,保障获取个人信息的有效性,坚持数据统计结果与所有权相分离的原则对个人信息进行保护。

其次,数据的规模性和量化促进人工智能的学习能力和其本身的发展,而数据本身的质量并不能保证人工智能的学习不会接触到不良信息。另外人工智能本身深度学习能力如何,以及其怎样学习,怎样决策,都不再受人类控制。这就需要优化数据算法,过滤不良信息,同时提升人工智能的危险鉴别能力;需要成立伦理审查委员会,对人工智能研发人员的伦理问题进行实质审查并对人工智能产品进行伦理审查。

最后,人工智能作为被人类适用的产品本身就存在安全隐患,更不用说时有发生的人工智能毁 损财物、致人损伤的事件。区分人工智能的强弱程度,在弱人工智能侵权的情况下,使得《侵权责任法》《产品质量法》等法律的规定做出与弱人工智能相适应的解释,生产者、销售者和使用者分别承 担不同的责任。而在强人工智能侵权的情况下,则需要采取一定的制度设计确定强人工智能的独立 财产或与之相匹配的相关制度,以降低强人工智能设计者、生产者或者使用者的责任,有效地防范风险。

3

制定《人工智能发展法》

随着人工智能的迅速发展,与国家发展战略的需要相匹配的需要,需要加快人工智能相关法律 规定的修订和完善,从法律层面对相关行为的性质进行界定,尤其是《人工智能发展法》。与人工智能发展的现状以及未来可能发展的预期相结合,对人工智能的相关法律制度进行纲领性与具体化并存的制定,尤其针对人工智能的法律地位以及相应的配套措施,以及对人工智能进行监管的体系和流程。将人工智能的发展与社会伦理和社会价值相匹配,强化对人工智能的保护和监管,即使赋予其法律主体地位,也要防止其权利被滥用。

以上,笔者通过人工智能财产要件的实现路径、法律风险防范机制和制定《人工智能发展法》 三部分来简要提及对人工智能法律主体地位的相关制度设计,确保其法律主体地位能发挥应有的作用。

四 结论

人工智能的发展是社会进步、经济发展的必然结果,而人工智能的发展又需要相关法律制度与其相匹配。人工智能的法律主体地位是人工智能不断向前发展的必然结果,笔者通过对人工智能的法律地位的学说和观点进行整合分析,从人工智能的法律主体地位原因和制度设计两方面阐明人工智能的法律主体地位的合理性和正当性。因现行法律缺乏对人工智能的法律地位的指向性态度、对人工智能的法律地位未加以确定、欠缺与人工智能发展相匹配的具体规则和现实中人工智能的法律主体地位的确定四方面原因需要确立人工智能的法律主体地位。另外,为保证人工智能的法律主体地位,从人工智能财产要件的实现路径、法律风险防范机制和制定《人工智能发展法》三部分来完善人工智能的法律主体地位。总之,笔者认为应承认人工智能的法律主体地位。

(0)

相关推荐

  • 我们应该称人工智能为“人”吗?|人工智能与伦理挑战

    人工智能与伦理挑战  原文刊登于<社会科学战线>2018年第一期 当AlphaGo在击败了韩国顶尖棋手李世石以及让中国围棋第一人柯洁投子认输之后,人们突然感觉到人工智能以一种特别的形象乍现 ...

  • 【观点】浅谈破产管理人的法律地位

    摘 要 破产管理人是破产程序中的核心机构,其源于债权人自助规范破产管理人的职责条件和责任,首先要明确其法律地位.关于管理人的法律地位各国破产法存在较大分歧,但这种争论只存在于大陆法系国家,破产管理人主 ...

  • 浅谈人工智能的商业价值

    众所周知人工智能快速发展,并且深入人们的生活和工作中,但人工智能不仅对人们的生活工作产生了影响,同时对于企业的发展,也有很大的价值.那么人工智能的商业价值如何呢? 在商业中应用人工智能,大致有四个主要 ...

  • 浅谈人工智能:现状、任务、构架与统一 | 正本清源

    朱松纯   加州大学洛杉矶分校UCLA 统计学和计算机科学教授 视觉.认知.学习与自主机器人中心主任 VCLA@UCLA 2017年11月02日 刊登于 <视觉求索>微信公众号 目录 引言 ...

  • 浅谈人工智能的学习

    人工智能(AI)的发展是一个从学术研究.行业验证.商业落地.行业平台到智能生态的一层层深入过程,这也是人工智能理想的发展阶段.人工智能的重要性无需赘述,对AI学习对我们来说同样重要,但是如何学习人工智 ...

  • 浅谈人工智能与商业营销的结合

    最近一段时间,人工智能见证了商业营销的快速发展,同时也有越来越多的营销人员想要充分利用人工智能的潜力.人工智能与商业营销相结合,可以有效帮助企业实现一些看似不可能完成的目标. 1.推荐系统:人工智能能 ...

  • 朱松纯|浅谈人工智能:现状、任务、构架与统一(上)

    朱松纯 加州大学洛杉矶分校UCLA 统计学和计算机科学教授 视觉.认知.学习与自主机器人中心主任 VCLA@UCLA 2017年11月02日 刊登于 <视觉求索>微信公众号 目录 引言 第 ...

  • AI综述专栏 | 朱松纯教授浅谈人工智能:现状、任务、构架与统一(附PPT)

    AI综述专栏简介 导读 本文作者朱松纯,加州大学洛杉矶分校UCLA统计学和计算机科学教授,视觉.认知.学习与自主机器人中心主任.本文根据第四期"人工智能前沿讲习班"AIDL的报告以 ...

  • 浅谈法律援助乡村振兴

    摘要:法律援助是助力乡村振兴.建设法治乡村的重要手段之一,也是解决"三农"问题的有力手段,对化解农村社会矛盾,加大农村的普法力度,提高农民自身法治素养,健全农村公共法律服务体系起着 ...

  • 浅谈AI人工智能回归算法的分类

    众所周知人工智能的发展,离不开算法的算法的应用,这也是为什么想要从事AI人工智能工作,需要拥有数学基础的原因.接下来小编带你一起了解下,AI人工智能行业中回归算法的分类. 回归算法有很多种,其中最为常 ...