人工智能的法律挑战(数字法治骁克人工智能体法律人格化拟制路径之探究)(1)

骁克:华东政法大学法律学院博士研究生

本文来源:《法律方法》第34卷

人工智能并非一个近年来才被提出的科技概念。早在1956年达特茅斯会议就提出了“人工智能”的概念,20世纪70、80年代,学界更是对其充满了研究热情。但受到当时的算法、学习能力等客观条件限制,人工智能更多呈现出一种“有多少人工就有多少智能”的状态。随着算法和深度学习技术的突破性发展,2016年,拥有深度学习能力的人工智能围棋手Alpha Go(以下称“阿尔法狗”)以极大优势战胜世界级棋手李世石,人工智能展示的威力开始震惊世界;2017年,“阿尔法狗”又再一次完胜围棋世界冠军柯洁后,人工智能的发展再次受到全球瞩目,成为当时科技界,乃至今日“全场最靓的仔”。因此,2017年被《华尔街时报》《福布斯》和《财富》等世界重要媒体称为“人工智能元年”。同时,借着我国国家层面第一部关于人工智能发展规划——《新一代人工智能发展规划》出台的政策东风,法学界第一时间秉承对现实社会的强烈关切和对热点问题的回应,积极地开始了关于人工智能时代的“法学思考”,相关研究成果呈爆炸式增长,“人工智能 ”成为如今法学界最耀眼的知识增长点。

一、人工智能体“法律人格论”的学理检视

目前法学界关于人工智能的研究主要关注其风险防范和规制。而法律如何规制这些未来的“最强大脑”,首先必须要回答它在法律中何以安放的问题,亦即人工智能体能否拥有法律人格、继而能否作为法律主体。实践中,随着有国家授予机器人“公民身份”,并且相关立法草案或建议也拟赋予机器人“主体性”,部分学者亦随之狂欢,开始新一轮的法律“造人”计划。主张赋予人工智能法律主体资格的论者认为,自主性是人工智能的核心特征,人类已经失去将其继续看作仅供人类驱使的被动性工具的理由,而应给予其主体资格,让其享受特定的权利义务,并对行为承担责任;人工智能体成为法律主体,不仅有利于解决人工智能体自主行为的法律责任承担问题和人工智能创作物的产权归属问题,还能够为以后的高端人工智能体(即强人工智能)自主参与社会活动做好准备。目前主要形成了“权利主体说”“拟制主体说”“有限法律人格说”“代理人说”“电子人格说”,本部分将对上述学说逐一展开学理检视。

(一)权利主体说之检视

该学说认为人工智能体具备了权利主体的智能性这一本质要素,将人工智能“人格化”不存在法律方法论上的障碍,相反,人工智能体具有适应社会发展的正向功能性。该学说的拥趸者还从权利扩张和“实力”变化的角度,认为在权利主体的发展历程中,奴隶、黑人、妇女、动物乃至法人等主体,取得权利主体资格,均是“实力影响、界定权利”的反映,机器人广泛运用于社会中并体现了一定的自主性和社会优势,故在法律上应当享有权利主体的地位,即便该权利有别于自然人的权利。

“权利主体说”明确了权利主体的本质要素,通过类比推理的法律方法,将人工智能“人格化”,主张应赋予其独立的权利主体地位;并从法社会学的立场出发,依据“实力界定权利”的原则,认可人工智能在法律上应该享有权利主体的地位。但该推论逻辑上存在两个问题。其一,智能性是权利主体本质要素的证成是否充分?权利主体是依法享有权利和承担义务的法律关系的参加者,对于权利主体的核心要求应当是能够自主依法行使权利、并承担相应的义务。从民事领域来看,目前人工智能是否具备独立行使人身权利、财产权利以及其他合法权益的能力?从目前看来,人工智能体仅能够具备特定的权利,且权利的实现有赖于自然人的帮助,并不具备独立行使权利的能力。其二,“实力界定权利”原则并非导致权利发生变化的根本原则,亦即“实力”并非权利变化的决定性因素,奴隶、黑人、妇女等法律主体权利的变迁和扩张是社会经济和文化多种因素共同作用的结果,并且这些主体的变化仍局限于自然人范畴,并未扩充到非自然人领域。因此,根据以上两个逻辑上的问题,直接赋予人工智能体以完整、独立的权利主体地位,并不具备说服力。

(二)拟制主体说之检视

该说认为,人工智能体具备了人类的思维能力,所以超越了传统意义上“物”的概念范畴,但人工智能摆脱不了为人类服务的工具性附庸角色,所以其非物也非人,我们可以像拟制法人一样,从法律上拟制一个新的主体,赋予其与法人一样性质的法律地位。该主体地位依赖于自然人而非独立于自然人,只是法律的拟制。

关于“拟制主体说”,其承认人工智能体具备超越“物”的属性,但仍然是为人类服务的“工具”角色,和法人制度一样“是人的手臂之延展”。因此,即使人工智能体不具备完整、独立的权利主体地位,但仍可通过法律拟制的方式,赋予其与法人相同性质的法律地位,但人工智能体的权利行使和义务承担,仍依赖于自然人而非独立于自然人。这种拟制主体的方式导致人工智能体虽然具备权利与义务,但其权利行使和义务承担完全依赖于自然人。试举例,假设人工智能体通过一定的“创作”,取得了作品的著作权。但其权利的行使完全依赖于自然人,机器人意愿的形成和表达仍需要通过自然人的意愿来决定,而并非基于人工智能“主观意愿的自由表达”,那在法律上建立拟制主体制度的价值何在?

(三)有限法律人格说之检视

该学说认为人工智能体的本质依然是工具,其为人类社会服务的属性没有改变,但鉴于其具有独立自主的行为能力,应赋予其法律人格;但另一方面,由于其承担行为能力的后果有限,其仅具有有限的法律人格,这种有限性表现在以下两个方面:一是人工智能体享有的权利与负有的义务存在有限性。因此,人工智能可被赋权的范围应集中于虚拟空间、财产权等具有现实利益的经济类权利上,而不包括基础性伦理权。而义务内容就是在可控范围内从事指定劳动,同时此义务需要加以不得伤害人类为绝对性限制,这也是阿西莫夫“机器人三原则”中对于机器人义务的限定。二是人工智能体的行为能力存在有限性。人工智能永远无法在各个方面均取代人类,基于此类特殊生产工具的属性,人工智能体的损害赔偿责任最终需要由涉及人工智能产业链条上不同身份的人类主体承担。在此基础上,对于人工智能体仍需要特殊的法律规范予以规制。

关于“有限法律人格说”,其立论的基础是民法上确认法人的民事主体人格,实质上是一种功利主义视角,是法律人格的工具化。而通过将人工智能与法人的类比推理,认为人工智能与法人一样,应当具备财产权。同时,由于人工智能基于算法和深度学习,其自主决定的判断是合理的,但不一定符合伦理。且人工智能虽然具有有限法律人格,但归根结底依旧是由人类创造并服务于人类社会发展的智慧型工具,这从根本上决定人工智能的发展必须遵循“以人为本”的价值原则,以保护、不侵犯人类为基本底线。因此,赋予人工智能体法律人格具有有限性,并表现为行为能力、权利义务以及责任能力的有限性。其立论即限制了人工智能作为法律主体的权利,这种限制将导致人工智能体与人类在法律关系中处于不平等地位,特别是在极其注重主体平等的民事法律关系中,这种有限人格与自然人的关系展开将带来很大的问题,且该观点并不能普适性地运用在民法以外的范畴,如刑法、行政法领域。

(四)代理人说之检视

该学说源自2017年的《欧盟机器人民事责任法律规则》第52条提出的“非人类的代理人”概念,其将机器人视为一种具有目的性系统的人工智能体,并视其为人类代理人,这种代理人必然是具有法律主体地位且具有行为能力的人,因此机器人的用户或操作者与机器人的关系可以被看作是法律关系中被代理人与代理人的关系。这一认定几乎等同于承认人工智能体具有法律人格。这个学说是对代理人概念的扩大解释,我国民法典中虽未对代理人的资质有明确要求,但民法是调整平等主体的自然人、法人和非法人组织之间的人身关系和财产关系。

而在这个概念下,人工智能体取得法律主体地位、并且具备行为能力是其作为代理人、形成代理关系的正当性前提。但该学说并未论证人工智能取得法律主体地位的正当性,依据一般民事理论,代理人需要具备一定的权利能力和行为能力,机器人的行为能力判断标准如何界定也未明确。在未论证主体正当性的前提下,将人工智能纳入传统的代理制度,并依此承认人工智能体具有法律人格,存在循环论证的问题。此外,根据现行代理法的规定,代理包括委托代理、法定代理和指定代理,而此时并无法将机器人代理归入任何一类,一方面既欠缺法律的明确规定,另一方面也根本不存在任何意思表示。

(五)电子人格说之检视

这一观点源自欧盟通过的《欧盟机器人民事法律草案》第59f条款:长远来看,要为机器人创设一个特殊的法律地位,以便至少大多数复杂的自动化机器人可以被确立如电子人(electronic persons)一样的法律地位,为其制造的大量的损害负责,或者,当机器人可以作出自动化决定或者与第三人自主交流时,要申请电子人格。因此,通过给先进的自动化机器人以“电子人”的身份,赋予其一定的权利义务,以便能够为其产生的大量损害负责。该法还进一步建议为智能的自动化机器人设定登记制度,以便为其纳税、缴费、领取养老金。该观点通过对现行权利主体的扩大解释,形成新的电子人格制度,赋予人工智能体以法律地位。

但是“电子人”这种有别于现有法律人格类别的新型人格类型,并不能因该机器人被生产出来而自动生成,而是需要制造商或所有人提出申请予以确认。此外,就电子人本身,也并没有明确的内涵和外延。相较于现行的自然人、法人非法人组织,电子人具有的权利能力和义务是否有限?其行为能力应当如何确定?电子人在触犯法律时,如何处罚?传统的自由刑、生命刑对电子人是否有效?电子人如果本身作为自然人的财产,则对电子人“生命”与“自由”的剥夺,又间接剥夺其“主人”的财产权,这种法律竞合如何处理?

综上,虽然主张赋予人工智能法律主体资格的观点众说纷纭,从某一角度看似乎都有一定道理,但其论证人工智能具备法律人格的路径,并经不起仔细推敲和认真审视。这就开启了人工智能体法律人格化的拟制路径分析。

二、人工智能体人格化之拟制分析

“法律主体和法律规范体系不是自然物而是人造物,是法律拟制的产物。”而这种拟制,并非狭义的拟制,而是关于主体权责、行为规范的设定,是对模糊不清的事实、界限不明的主体身份、难以断定的行为等予以明晰的规定,是人有意识对认知对象的界定以及对行为方式和思维方式的调整。因此,从这个意义上,所有的法律人格都具有拟制性,是一种人格化拟制。

要理解所有法律人格都具有拟制性这一特征,首先需要区分自然科学意义上的“人”与法律意义上“人”。民法上的法人、自然人等法律主体所具有的法律人格以及所有的民法概念体系,都是民法为了调整不同主体之间的法律关系或进行权利责任配置,所进行的一种法律拟制。分析法学的代表人物凯尔森认为,man和person是两个完全不同概念,将man用作person的对立表达。在他看来,作为man的人是一个自然科学意义上的生理人,而person是法学、分析法律规范的概念。从man到person的转变背后承载的是两种完全不同的分析范式,前者是自然界中的人,后者是规范世界中的人;前者是对客观事实的描述,后者是对客观事实的抽象化提炼,而这个转变的过程,正是法律拟制。“拟制”,并不是指将一个非人的动物、实体假定为人,而是指法律人的成立,首先是源于法律的抽象建构,人之所以为人是因为根据法律规则的观点,人展现了一种自我目的。

罗马法认为,享有自由权就是自由人,不享有自由权就是奴隶。就市民法来说,奴隶被认为不是人,不具备法律上的人格。除了基于出生的生来自由人,罗马皇帝有资格把自由权赐予有功的奴隶(金戒指权),使其成为解放自由人,而得到恩主同意并由恩主发布出生恢复令,解放自由人才能成为生来自由人。在此过程中,罗马皇帝的金戒指权就是一种法律拟制,而奴隶(自然人)据此取得法律人格。“人”实际上就是“法人”,也即由法律拟制、塑造的人。

法律选择法律主体的标准存在不同。对生物人成为法律主体,法律并无特殊要求,凡是生物人皆为自然人;但对生物人之外的其他实体则借助拟制成为法律主体,这一拟制主要是借助法定条件实现的,即其他实体要成为法律主体必须满足法律规定的条件,否则不承认其具有法律主体资格。这些法定条件背后则隐藏着法律所追求的特定目的,只有合乎立法者认定的社会需求的其他实体,才会被赋予法律主体资格。大陆法系的法人制度清晰地说明了这一点,《民法总则》关于法人制度的相关规定即是例证。英美法系同样如此,马歇尔在达特茅斯学院案中指出,公司设立的目的通常是政府希望促进的目标。它们被认为对国家有益,这种利益构成了对价,在大多数案件中,授权是唯一的对价。自然人制度背后的立法目的和以法人为代表的非自然人制度背后的立法目的并不相同。康德指出:“那些其实不以我们的意志为依据,而以自然的意志为依据的东西,如果它们是无理性的东西,就叫做物件。与此相反,有理性的东西叫做人身,因为,他们的本性表明自身自在的就是目的,是种不可被当作手段使用的东西,从而限制了一切人性,并且是一个受尊重的对象。”生物人因为有理性而成为目的,成为自然人这一法律主体;除此之外都是物,只是因为人的目的才被拟制为法律主体。从这种意义上说,自然人的判断标准是理性,非自然人民事主体的判断标准是合乎人类需求的拟制。

因此,是否应当赋予人工智能以法律人格或独立的主体地位,无需通过论证其与自然人或法人的相似性或对既有法律主体条款进行扩大解释的方式来论证其法律人格,而是要看是否有助于调整人工智能产生的法律关系或有助于进行其产生的权利义务关系的配置。而现在不具备生命、意志、情感、道德的人工智能已经为人类提供了便捷服务,为了更好地规范人工智能相关法律问题,明确人工智能的法律定位,从拟制哲学的角度来讲,我们完全可以通过拟制法律人格的方式,使之成为法律主体。

即使不考虑未来强人工智能完全自主行为的情况,现有的“深度算法”人工智能,已经存在“算法黑箱”的情况。而在“算法黑箱”的情况下,我们无从得知人工智能的决策中,哪一部分关系需要法律调整,而这一部分又是如何凸显的。这既可能是设计中的不完备,亦或算法开发的瑕疵,也可能是“深度学习”中数据偏见的作用,甚至是使用者不规范使用所导致的。如现行《侵权责任法》关于产品侵权的规定,在难以界定各方责任的情况下,不能很好地保护自然人的利益。因此,赋予人工智能一定的法律人格,是回应人工智能侵权案件的现实需求。

2017年2月16日,欧盟议会投票通过一项决议,就制定《欧盟机器人民事法律规则》提出具体建议,并要求欧盟委员会提交关于机器人和人工智能民事责任的法律提案。该决议的“法律责任”部分第AD条指出:“在现行法律框架下,机器人不应因其对第三方造成损害的行为或遗漏而承担责任;在责任保险的现行规定中,机器人的作为或不作为的原因可以追溯到某一特定的人类代理人,如制造商、经营者、所有者或使用者,以及该代理人可以预见和避免机器人的有害行为的地方;此外,制造商、经营者、业主或用户可对机器人的行为或不作为负有严格责任。”而在“民用机器人和人工智能发展的基本原则”部分第59条第f项指出:“从长远来看,应为机器人创造一个特定的法律地位,这样至少可以将最先进的自主机器人界定为电子人,从而负责赔偿其可能造成的任何损害,并可能将电子人格应用于机器人作出自主决定或独立与第三人交往的情形。”上述立法建议进一步证明了在机器人可以自主决策的情况下,传统的规则并不能适用于机器人造成损害而引起的法律责任问题,因为不能确定到底哪一方当事人需要承担赔偿责任,以及由谁应当对机器人自主行为引起的损害承担赔偿责任。

人工智能体法律人格的获取均建立在自然人法律人格的基础之上,甚至离不开自然人的支持——无论是何种观点,均是人类在为人工智能体赋权,而非其他主体在为其赋权。赋予人工智能体以法律人格,哪怕是不完整、不独立的法律人格,依然有利明确人工智能体行为所产生的权利义务关系配置,有利于调整人工智能体产生的法律关系。因此,从拟制的角度来看,人工智能具备法律人格具有应然性。但人工智能体的法律人格具体应该如何明确,其权利责任究竟如何进行调整或配置,是法律拟制所难以明确的。而面对这种困境,“法教义学是法学研究不可抛弃的立场和方法,当下对人工智能法律问题的研究仅停留在对策论,离开法教义学的精耕细作和理论共识探讨必将使人工智能问题研究难以沉淀。”人工智能体的法律人格如何明确,权利责任如何配置,就需要回归到逻辑的开端和理论建构的基点,进行更细致的法律思维——法教义学。

三、具体法域中人工智能体法律人格的拟制规程

无论从非自然人存在物成为法律主体的拟制理由观察,还是从人工智能成为法律主体的问题实质考量,人工智能体成为法律主体并不是为了保护人工智能的利益,而是为了保护人类的利益。换言之,人工智能体成为法律主体只是实现人类利益的手段,人本身才是目的。人类为了解决人工智能体引发的相关社会问题,才按照自身利益将其拟制成为法律主体。人工智能的法律主体地位与自然人的法律主体地位具有不同的涵义,人工智能体为人而存在。而从目前来看,人工智能体与人的冲突有很多领域,笔者尝试从以下三个领域来进行探讨:人工智能体的民事法律人格、人工智能体的刑事法律人格、人工智能体的著作权法人格。

(一)人工智能的民事法律人格——类法人的权利能力

法律人格问题是私法中一个最基本的问题,法律人格是法律主体的根基,法律人格、法律主体和权利能力三个抽象的概念在一定程度上能够进行相互解释。拥有法律人格即意味着拥有法律主体地位,也意味着能成为法律关系中的权利享有者、义务履行者和责任承担者。从西方法律人格制度的发展史来看,“法律人格”概念和范畴经历了不断发展变化的历史变迁,呈现出三方面的特征和趋势:一是依托于“天赋人权”理念的起兴和自然法“理性与平等”观念的勃兴,泛灵论和多神论逐渐式微,非人主体如植物、动物、神、上帝等被排除在法律人格和权利主体的范畴之外,自然人成为法律主体;二是法律人格的主体范围完全覆盖到所有自然人,自然人法律人格不再局限于罗马法上有区别、有例外的不平等人格,而是自1804年《法国民法典》始,涵盖到所有自然人,奴隶、妇女、黑人等不再是“会说话的工具”,所有自然人平等地成为法律主体;三是随着经济社会变迁和法律关系理论深入发展,19世纪末的《德国民法典》进一步抽象出权利能力、行为能力的概念,在自然人主体之外扩展拟制出“法人”人格,“法律人格”概念实现了从“生物人”向“法律人”的华丽转型,现代法律人格制度自此成功建立。

法律人格的发展具有开放性和抽象性,特定的组织通过权利能力的赋予,实现了财产与实体的独立化,拥有了法律上的人格,成为了“法人”。法人拟制说的主要贡献是将法律拟制的对象“由自然人拟制为法律人扩展”到“由自然人拟制为抽象实体”。其核心观点体现为以下三点:第一,将自然人的法律主体资格与法人从根本上区别开,前者才是真正的主体,团体人格并非来自法人本质,而是来自于自然人,也即“权利义务之主体,应以自然人为限”;第二,法人虽有权利能力,但无行为能力,法人的法律行为只能由法定代表人代理;第三,法人机关与法人的关系是双重人格的代理与被代理关系。法人拟制说中权利能力和行为能力的分离受到了天赋人权影响。以权利为载体的权利能力必然体现和彰显自然人的人格和意志,而法人显然不具备这些基本的要素,因此赋予法人权利的资格已经属于超越自然法的法律拟制,更遑论法人的行为能力赋予。一方面法人有赋予其权利能力的历史必然性;另一方面法人又无法依赖自身行使权利,权利能力与行为能力二分可以较好地处理以上矛盾。法人不能通过法律拟制获得如同自然人拟制那样完整的权利能力和行为能力,但是通过法人背后的人来行使权利能力同样可以发挥法人在社会经济运作中的功能。

事实上,我国在部分侵权案件中,已经有限度的涉及了人工智能体。在许霆案中,“自动取款机”凭什么在没有任何银行人员在场管理或操作之下,可以与客户独立完成一系列存款取款等法律行为?“自动取款机”究竟只是一个机械工具,还是被银行人员授权的有相对智能性和意思表达性的法律上的“代理人”。从民法教义学的角度来看,人工智能的民事法律人格类似于法人,具备有限的权利能力,但没有行为能力(至少现在没有),且其权利的行使有赖于自然人。原因如下:

1.人工智能缺失“意志理性”。意识、意志和理性三者有机内化融合于法律主体之中且密不可分,人作为社会关系的总和,本质上就是意志的存在形式,因而能在有自主意识的基础上进行有选择、有目的的认识活动和改造活动。正是基于此,法律通过调整人的意志行为,维护社会公平与秩序,并确认、形成、巩固和发展社会关系。意志和理性是确认有无法律人格的重要因素。然而,人的意志和理性并不等同于人工智能的逻辑运算,因为决定其发挥功能和作用的算法并不能与作为设计者、制造者的自然人相分离,其拥有的判断能力来自程序和算法的设置,无法完全进行具有自主意识的思维判断和行为活动。人工智能缺乏自然生命所与生俱来的“灵性”和“创造性”,无法应对超出其程序之外的突发状况,不能应对其从未被训练过之事。而且,人工智能也不具备“喜怒哀乐”的“欲求”,缺乏内在诉求,这种欲望的匮乏不仅在哲学视角下无法成为法律主体,在法律视角下也无法产生民事活动的动机。

2.人工智能缺乏“责任能力”。责任指的是有能力对自己的行为负责,而且只有人才有能力对所做的事情负道德上的责任,这也是人区别于其他生物体所在,这也就是法律上“自己负责”理论。在法律上,承担责任的方式主要有行为担责和财产担责,并且财产担责占据主要部分。在一定程度上,“人格与人的基本物质条件相连接”,“无财产即无人格”,财产实际上成为决定是否具备法律人格、考察是否具备责任能力的最为重要的衡量因素。从法律主体制度的历史追溯来看,无论是自然人范畴的扩充,还是法人的拟制,这些法律主体外延的展伸过程都秉持以财产为核心要素的责任能力作为判断标准。人工智能在相关实践活动中确实能产生一些财产性收益,但这些应属于其背后的实际控制人——因为其所作出的行为其实是基于实际控制人的意思表示,所以法律主体应该是控制人本身而非人工智能——其仅是法律活动中凭借的“工具”。在司法实践中,当人工智能体发生侵权事件后,一般也是由制造商、所有人或控制人根据过错来承担相应的赔偿责任,人工智能体既无能力也无财产予以赔偿。相反,若由人工智能体进行赔偿,则可能导致上述主体出现“责任甩锅”的逃避行为。

(二)人工智能体的刑事法律人格——面向未来的人格化可能性

人工智能可以分为强人工智能和弱人工智能。弱人工智能体是指不能制造出真正地推理(reasoning)和解决问题(problem solving)的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。“强人工智能是指有自我意识、自主学习、自主决策能力的人工智能,也是人工智能发展的终极目标,但是在意识问题没有解决之前,强人工智能的实现还有很长的路要走。”在现阶段人工智能依然应用在特定技术、特定领域应用,虽然有着一定的学习能力,但是并不能从根本上具有自主意识,仍然属于学界所说的弱人工智能阶段。因此,由于有责性缺失与刑罚无效,赋予现阶段的人工智能体以刑事法律人格并不现实,但随着未来的自主智能机器将有能力完全自主行为,具备不需要人类介入或者干预的“感知—思考—行动”,不排除对其赋予主体地位的可能。但至少目前,“在机器人社会化应用尚未真正实现之前,法律仅允许机器人权利的必要拟制、有益拟制。”

因此,探讨人工智能体的刑事法律人格问题,应着眼于现有规范体系难题,尤其是深度算法的获得以后,机器人具有自我学习或深度学习以后,如何让其承担刑事责任的问题。尤其是无人驾驶技术的发展,导致无人驾驶产品的侵权或“犯罪”的增加,现有的研究还主要着眼于让相关技术人员或产品生产者等环节来承担民事责任,能否追究该领域的相关产品的刑事责任,以及如何来承担相关刑事责任,尤其是“刑事责任”的承担要求行为主体的意识性、自主性以及罪责能力等法律教义学的背景下,如何对该领域,尤其是民事责任承担无法降低整个社会风向的背景下,刑事责任的承担也会提升日程。面对未来法治,有学者为人工智能体设计了具体的“刑罚”类型:“适用于人工智能的刑罚可以有三种,即删除数据、修改程序、永久销毁。”从形式上,“删除数据”“修改程序”“永久销毁”系对于人工智能体实施的技术操作,并会导致其本体的状况改变。这种观点有一定的启发性,尤其是面对日益发展的人工智能体,尤其是深度算法和自主学习能力获取以后,如何分配无人驾驶等领域的刑事责任问题,也是一个亟需研究的课题。

(三)人工智能的知识产权法律人格——双重主体共同参与

这2017年5月,微软小冰在学习了519位诗人的现代诗、训练超过10000次后,创作完成了诗集《阳光失了玻璃窗》,并正式出版。除了微软小冰,其他公司也开发了众多人工智能产品用于创作各类文学和艺术“作品”。例如,谷歌开发的人工智能DeepDream可以生成绘画,且所生成的画作已经成功拍卖;腾讯开发的DreamWriter机器人可以根据算法自动生成新闻稿件,并及时推送给用户。这些由人工智能创作的成果从外观形式来看,与人类创作的成果没有任何区别,而且也很难被察觉并非由人类所作。21世纪以来,人工智能在“深度学习”的基础上,已经完全能够脱离原有程序设计者,结合外界环境学习经验并独立创造出新智力创作的成果。

人工智能独立创作能力的出现,对当前著作权乃至知识产权领域的法律规则提出了新的挑战。追溯知识产权制度的产生与发展,其最终目标都是通过赋予权利人独占性权利及取得利益的期待可能性来鼓励和促进创新。在目前的著作权法体系中,作品仅是指自然人、法人或其他组织创作的智力成果,作品的权利也只能由上述三者取得。由此出现一个新的难以回避的著作权问题:由人工智能创作出的智力成果能否成为著作权法体系当中的“作品”,以及这种智力成果的权利归属由谁来取得。对此,著作权体系必须做出回应,确保其继续合理保护智力投资、鼓励计算机自主创造系统发展,同时需要平衡风险,避免计算机自主生成作品的大量出现导致著作权体系的崩溃。

针对人工智能创作物的性质认定与法律保护,在西方国家已出现了相应的法律进展。英国《著作权法》第9条规定,“作者”指的是创作人;在文学、戏剧、音乐等艺术作品来源于电脑的情况下,作者应当是对作品创作做出必要安排的人。该法第178条规定,电脑生成作品是实质上没有任何其他自然人参与作业、完全由电脑独立创作产生的作品。根据其规定,即便在人工智能创造出创作物的情况下,也将其视为一般工具,其创作物的权利归属只是笼统地赋予“做出必要安排的人”,并未指明是管理人员、设计者还是程序的版权所有者。这实际上已经暗示了计算机作为著作权人的主体地位,只是将其作品的权利归属仍然赋予了自然人。它一方面肯定了计算机独立生成的内容具有独创性,另一方面又将未参与创作而促成计算机生成作品的主体视为作者。从现有技术出发,促成计算机独立生成作品的主体一般为程序的创作者或使用者。在美国,一个由人工智能系统设计的卫星天线已被授予了专利权,专利权人是原程序的设计者。2016年4月,日本政府知识产权战略总部决定着手保护人工智能创作小说、音乐等方面的知识产权。由于人工智能作品不属于日本现行《著作权法》适用对象,因此日本将研究制定新法。相关方案也写入了代表知识产权政策方针的《2016年知识产权推进计划》,并且“将为运用知识产权进行革新创造的企业和大学等挑战者提供强有力的支持”。2017年2月,欧盟议会通过决议并提出:“对于计算机或者机器人创作的可版权作品,需要提出界定人工智能的‘独立智力创造’的标准,以便可以明确版权归属。”

从比较法的角度来看,世界各国目前仍未将人工智能视作独立的知识产权法律主体,但都认可人工智能治理成果的独创性,即保护作品不保护“人”。要解决人工智能在知识产权上的主体问题,必须面对两个问题:财产权利如何保护分配、以及行为责任如何承担。从目前来看,将权利与责任归于人工智能本身并无异议,因为即使允许人工智能如同法人一样,具备独立的财产权利与责任,但人工智能体并没有利用财产权利的内在诉求,也缺乏处分财产的制度保障。因此,较为合理的方式是以实行人工智能主体与传统主体相结合的双重主体模式,实现权利与义务的合理分配与统一协调。在人工智能未出售给他人之前,其创作物的权利主体地位由原始设计者与人工智能共享,责任义务也由二者共同承担。在人工智能被出售给他人后,人工智能创作物的权利主体地位由所有者与人工智能共享,责任义务也由二者共同承担。

综上,由于目前人工智能体仍不具备完全的自主能力与理性,即处于弱人工智能时代,但是也应看到,自主学习和深度学习能力算法的发展,面对很多对现有法律规范进行冲击的领域,我们亟需相应的法律方法或方式来进行应对。就人工智能体法律人格化问题,笔者认为,通过拟制的方式,有有限承认其一定的法律人格,可能更有利于规范的完善和适用,尤其民事领域和知识产权领域,实践逐渐给我提出了很多的问题,也给我们解决问题提供了一些启示。即使在备受争议的刑事领域,随着深度算法的发展,无人驾驶领域能否让人工智能体承担相应的刑事责任问题,也有人进行了思考。而且这种讨论,会随着技术和实践的发展,而不断走向开放和深入。

结 语

科技的迅猛发展为现代人的生活带来了极大的便利,也让我们对未来的生活充满了愿景。传统的规则已不能很好地的处理人工智能引起的法律关系与权利义务问题,而目前论证人工智能具有法律人格的几种途径,均存在逻辑上的瑕疵。从法律拟制的角度,正因为法律明确了主体权责、行为规范,才有了法律意义上的“人”,因而所有的法律人格都具有拟制性。而设立法律上“人”的定义,正是因为这合乎人类的需求。因此,在有助于调整人工智能产生的法律关系与有助于进行其产生的权利义务关系的配置的前提下,赋予人工智能以法律人格具有应然性。从民法的角度出发,由于人工智能缺乏“意志理性”与“责任能力”,人工智能尚不具备行为能力,但可以赋予其类似于法人的有限权利能力。从刑法的角度来看,人工智能体的发展,其刑事责任能力承担的问题并不是十分紧迫,但着眼于深度学习能力和某些领域,如无人驾驶等也不断给传统刑事责任认定提供很多挑战。从知识产权的角度出发,应当认可人工智能的“创造物”,但由于人工智能自身权利能力和行为能力的缺失,采取双重主体共同参与、由人工智能与原始设计者共享主体地位并承担责任义务更为妥帖。“人工智能并未对法律基础理论、基本法学教义提出挑战,受到挑战的只是如何将传统知识适用于新的场景”。因此,现阶段不宜急于求成、一步到位的赋予人工智能以法律人格,根据人工智能的能力发展与实际场景需求,不断地完善人工智能的权利能力与行为能力体系,才能更好地解决人工智能发展中不断出现的新法律问题。

人工智能的法律挑战(数字法治骁克人工智能体法律人格化拟制路径之探究)(2)

《数字法治》专题由华东政法大学数字法治研究院特约供稿。专题统筹:秦前松

,