欢迎来到专业的新思文库网平台! 工作计划 工作总结 心得体会 事迹材料 述职报告 疫情防控 思想汇报 党课下载
当前位置:首页 > 范文大全 > 公文范文 > 正文

人工智能的民事法律主体地位及民事责任问题研究

时间:2022-11-19 20:05:07 来源:网友投稿

摘 要:随着人工智能技术的发展,传统民法人物二分的体系受到挑战,学界对是否赋予人工智能民事法律主体地位存在较大争议。以创造者、生产者能否控制人工智能为标准,可将人工智能划分为弱、中、强三个层次,在此基础上解决人工智能导致的一系列民事责任问题。弱人工智能可视为物,不赋予其法律主体地位;对于中人工智能,生产、创造者以能够控制的范围为限承担相应民事责任或者监护责任;强人工智能能够完全摆脱生产者和创造者的控制并自行创造新的人工智能,法律应赋予其独立的主体地位,将其视为拟制人或者一种特殊的法律主体。

关键词:人工智能;民事法律主体;民事责任

中图分类号:D923      文献标识码:A

文章编号:1003-0751(2019)08-0063-04

2017年美国汉森公司研发的人形机器人索菲娅被沙特阿拉伯授予该国公民身份,成为历史上第一个被授予公民身份的机器人。索菲娅拥有和人类相似的外表,能够凭借复杂的机械结构变换表情,利用人工智能算法实现面部识别、语言理解并与人类互动。这引发了学界对人工智能法律主体地位问题的热烈讨论。从人工智能的发展现状来看,人工智能已经表现出相应的表达能力,可以与人类进行交流;其计算能力已远超人类,以AlphaGo为代表的人工智能在战胜人类棋手的基础上进行的自我对弈甚至给专业棋手以启迪。人工智能在技术层面上已经可以从事数据查询、信息分析、翻译等工作,甚至可以根据以往判例对新的案件进行分析,一些律师业务可由人工智能独立或辅助完成,这引起了法学教育者及法律实务工作者的忧虑。①面对人工智能技术的挑战,法律应有所回应。

一、人工智能民事法律主体地位的相关争议

民法学者对人工智能的研究较为多元化,持否定观点和肯定观点的学者都不在少数,相对而言更多学者持否定观点。持肯定观点的学者认为,由于人工智能可以通过大数据分析而产生自我学习能力,能够对大量数据和信息进行分析研究并提供独立的建议,所以人工智能在未来可以成为法官。②有学者认为,人工智能已经逐步脱离单纯工具的范围,其在认知哲学领域表现出类似于人类的意识,并能作出类似于意思表示的行为,因而应承认人工智能的法律人格。③更多学者并不认为人工智能是民事法律主体。有学者认为,由于人工智能的发展水平尚未对传统民事法律主体理论提出颠覆性的挑战,所以仍应采用传统民事法律主体理论,不宜将人工智能规定为民事法律主体。④也有学者承认人工智能可以代替人类进行思考,但认为只应将人工智能产品认定为会自动学习和主动工作的工具。⑤还有学者认为,人工智能超强的智能蕴含巨大的风险,必须将其置于人类的支配和控制下,作为法律关系的客体而非主体。⑥

国外学者对人工智能的民事法律地位问题也有较多研究。美国学者韦弗认为,人类仅对人工智能承担监督职责,如果监督者对人工智能造成损害的发生不存在过错,且并无第三人导致人工智能造成损害,人工智能产品自身也不存在技術缺陷,则应赋予人工智能法律人格以解决相关问题。⑦英国学者科尔认为,将人工智能系统视为产品充其量是“部分适用”,更应将人工智能系统视为一种服务,尽管相关法律定义尚不明确。⑧另一位英国学者金斯顿从法律责任的角度,认为人工智能系统是否需要承担民事法律责任取决于两方面因素:人工智能系统是否存在局限性以及这种局限性是否被认识和向消费者传达;人工智能系统是一种产品还是一种服务,若仅是一种产品,其就不具有法律主体地位。⑨

二、人工智能民事法律主体地位的可能性

人工智能是否可以成为民事法律主体,对此不仅要从法理学的角度进行分析,还要从哲学、生物学、人类学等学科领域进行分析。民法上的法律主体包括自然人、法人和非法人组织,或者说,民法确认的法律主体包括人、拟制人和人的集合三类。人工智能显然并不包含在民法规定的法律主体范围内,那么,我们需要探讨人的定义、法人作为拟制人存在的原因以及人工智能是否能够承担起法律主体地位。关于人的定义,哲学上主要有三种观点:人是神的创造物;人是自然的人;人是一切社会关系的总和。综合来看,哲学上对人的认识建立在人有自然属性和意识属性的判断之上,人工智能不具备成为人的自然属性,但如果发展出了独立意识,则其成为哲学意义上的人便是可能的。

自然科学强调人的生物属性。生物学家认为人是地球生态系统中的一种普通动物,是生物进化的结果。人工智能显然不能满足生物学上人的定义。有学者直接指出人工智能不能拥有生物人的伦理属性,因而不能成为具有生物人法律地位的法律主体。⑩也有学者认为,人工智能既不是生物意义上的人也不是生物集合的法人,因而不享有法律主体资格。B11这些观点建立在人工智能要成为法律主体就必须具有自然人的生物属性的认识上,但从民事法律主体制度的发展历史来看,获得法律主体资格并不必然要有自然人的生物属性。

民法上的法律主体是法律的创造物、规范的人格化、能动的行为者,也是联结法律与现实生活的桥梁。B12由于近现代民法源于罗马法,故民事法律主体有一定的历史延续性。罗马法的法律主体是相对狭隘的,并没有赋予所有人主体地位,一个生物人不能因为其是人而当然具有法律主体地位。罗马法利用人格减等实现了不同人格之间的相互转化:人格大减等是指丧失自由人格,沦为无人格的奴隶;人格小减等是指丧失自权人人格,成为他权人。可以看出,民事法律主体资格的获得并不以有自然人的生物属性为条件,是否具有类似于人的生物属性并不影响法律主体资格的获得。

影响人工智能取得法律主体资格的另一个因素是人工智能没有独立的意识,不能进行意思表示。结合法人的设立理论,有学者认为囿于伦理规范等方面的限制,人工智能不能被赋予生物人的法律人格,但赋予人工智能法人人格是可行的,如公司围绕公司章程作出决定,而人工智能围绕核心算法作出决定,两者具有相似性。B13类似地,有学者从现行法人制度出发,认为运用法律拟制的立法技术,可以赋予人工智能独立的法律人格,并且可以借鉴法人制度建立人工智能登记备案制。B14

综上所述,不论是从民事法律主体的历史发展还是从相关法理逻辑、现行法律制度来看,人工智能是否能够成为民事法律主体都只是一个立法技术问题,真正影响人工智能成为民事法律主体的因素不在生物学上,而在意思表达层面。人工智能能否独立作出意思表示关系着其最终能否成为法律上的主体,这与人工智能技术的发展直接相关。因此,对于人工智能的立法应着眼于人工智能的发展水平,而不应笼统地直接规定人工智能拥有法律人格、是“拟制人”或者“物”。笔者认为,人工智能在法理上可以获得民事法律主体地位,对其进行分类是有意义的,但由于人工智能发展水平不同,应根据其功能的强弱,以其能否被创造者、生产者控制为标准,分层次解决相关民事责任问题。

三、人工智能民事责任的分层次考察

关于人工智能的民事责任问题,多数学者认为对当前发展程度下的人工智能可以用现行法律解决相关民事责任问题,不必赋予人工智能民事法律主体地位,将其单纯作为法律客体的物看待即可。笔者赞同这一观点,同时希望相关立法能够对强人工智能出现的情况有所预见。当前学界对未来强人工智能能否作为民事法律主体争议较大,对未来强人工智能脱离创造者控制后的自我行为缺乏研究。人工智能目前处于一种尚未脱离其创造者和使用者控制的阶段,直接赋予其民事法律主体地位显然不符合实践需求,也容易导致其创造者和使用者逃避责任。因此,笔者认为,对人工智能的法律地位不应一概而论,不能绝对地将其认定为民事法律主体或者客体,而应视其所处阶段进行分类讨论。

1.弱人工智能阶段

在弱人工智能阶段,创造者和使用者完全控制人工智能,人工智能实际上只起到辅助工具的作用,完全根据创造者和使用者设计的程序运行,不会根据不同的实际情形作出独立的判断。这一阶段的人工智能完全附随于其所有者和控制者,与民事法律关系客体中的物没有任何区别。由于这一阶段的人工智能只有简单的功能意义而没有任何独立机器学习的可能性,所以应将其导致的损害责任视为产品质量责任。

2.中人工智能阶段

在中人工智能阶段,创造者和使用者不完全控制人工智能,人工智能拥有一定的自我学习能力,会根据不同的实际情形作出独立的判断,但不会作出独立的意思表示。这一阶段人工智能的应用范围大大扩展,其能力在一些领域超越人类,但其依然没有脱离创造者和使用者的控制。因此,对于中人工智能导致的损害责任,创造者和使用者以自己的过错承担相应的责任。如果创造者和使用者对损害的发生不存在过错,也并无第三人导致人工智能造成损害,同时人工智能自身不存在技术缺陷,则应设立相应的救助基金或者通过保险渠道加以救济。

反对人工智能具有民事法律主体地位和人格的学者认为,对人类自身种群命运的实质危害并不在莫须有的机器人“人格”本身,而是在机器人“人格”掩护下极少数创造算法、通过人工智能驱动社会运转的业内人对大多数人的算法独裁与技术绑架。B15这种忧虑是很敏锐的。正如法人制度下存在法人地位被滥用的情形,现阶段若赋予人工智能民事法律主体地位,该地位确实存在被滥用的风险,这也是主张“刺破人工智能面纱”的学者的理论出发点。笔者认为,这一问题会出现在中人工智能阶段,并且会随着人工智能技术的不断发展而增多,解决问题的核心在于把握人工智能的实际水平,只要人工智能尚未自我演算出独立的结果,尚未产生完全独立的表达能力,创造者就依然对其拥有掌控能力,并需要对能够控制的部分承担相应的民事责任。

目前,人工智能的发展水平基本上处于中人工智能阶段,可能会长期处于这一阶段。在中人工智能阶段,人工智能并不享有法律主体地位,由人工智能行为造成的任何法律后果都最终由它的创造者或使用者承担。当人工智能存在侵权情形时,它的创造者和使用者并不能免责。同时,由于这一阶段的人工智能有一定的行为能力,其运算结果和处理结果不完全受创造者和使用者控制,所以对其创造者与使用者的责任承担应有所区分。可以类比现行监护制度进行区分。民法上的监护是对不在亲权照护下的未成年人以及丧失或部分丧失民事行为能力的成年人,为维护其人身、财产权益而设置的民事法律制度。以此为参照,对人工智能的“监护”是设立相应的监督者,监督者可以是自然人也可以是法人,其职责是维护、监督人工智能的日常行为,矫正人工智能的非正常行为以避免损害发生。当损害发生时,监督者代替生产者和创造者承担赔偿责任,其履行赔偿责任后有权利向生产者和创造者追偿。相较于設立救助基金和寻求保险救济,设立监督者的优势在于,监督者的日常工作就是维护和管理人工智能,可以实施预防性救济。这一救济方式可以较早发现问题以避免损害发生,从而比保险救济等事后救济的主动性强。这一救济方式还能减少大规模损害,减轻人工智能研发机构的责任承担,在客观上促进技术发展。有学者认为,我国民法上的监护制度应以尊重自我决定、最小限制、能力推定为原则,并扩张制度的实施范围,以意定监护契约为设定监护的主要方式。B16笔者认可这种观点,同时认为对人工智能的保护和“监护”并不是为了保障人工智能的合法权益,而是为了保护围绕人工智能所形成的法益和法律关系,制度的落脚点应当在人,所保护的应是社会公共利益。综合而言,人工智能的创造者和生产者以其技术水平和产品质量为基准承担相应责任,使用者以其合理使用为限度承担相应责任,监督者对其监管的人工智能承担相应责任。

3.强人工智能阶段

强人工智能意味着人工智能完全脱离创造者和使用者的控制,能够作出独立的意思表示,可以为其行为承担相应的法律后果。强人工智能除了缺乏自然出生这一生物属性,其意思表达能力和人类无异。创造者和使用者已经完全不能控制强人工智能,故不承担相应责任。强人工智能作为进行独立意思表示的个体,对其行为产生的法律后果承担责任。同时需要注意,人工智能的思维和意识建立在数据分析和存储的基础上,人工智能是否能够产生类似于人类的一般独立意识是存有疑问的。如果人工智能的思维可以被存储、隐藏起来,那么强人工智能将实现物理意义上的“永生”——只要保留相应的数据,则无论怎么摧毁强人工智能的物理载体,强人工智能实际上都会存在。这会导致法律对生命、自由的剥夺、惩罚手段对强人工智能不产生影响,强人工智能将处于绝对优势地位。人类社会的伦理和规则建立在人会自然生老病死的基础上,强人工智能却不同,其只要拥有足够的能源(风能、电能、太阳能、核能等)以及能源转换途径,其生存能力就可以远远超越人类,在地球之外生存也并非不可能。这使得人类在与强人工智能的对抗中处于绝对劣势地位,传统的法律救济和惩罚手段对强人工智能不起作用。强人工智能的算法和数据都可以通过超快速自学获得,因而对强人工智能的法律责任应当比对人类的严格,同时要注意对人机共同侵权责任进行区分处理。

四、結语

当前学界对人工智能的争议主要是因为对人工智能的法律地位缺乏统一认识。探讨人工智能的民事法律主体地位,是对解决人工智能的社会化、伦理化、人机混合化等问题进行理论探索。承认人工智能可以享有民事法律主体地位,与现行法律不赋予其主体地位并不冲突。因为人工智能技术是由弱变强的,有明显的阶段性,法律不应跳过任一阶段。只要区分不同阶段的人工智能的法律地位,把握创造者、生产者能否控制人工智能这一标准,就能更加合理地解决人工智能所导致的法律问题,并解决眼下和未来有关人工智能的各类纠纷和冲突。

注释

①参见张建文:《人工智能技术的发展对法学教育的影响与应对》,《北京航空航天大学学报》(社会科学版)2018年第2期。

②参见高奇琦、张鹏:《论人工智能对未来法律的多方位挑战》,《华中科技大学学报》(社会科学版)2018年第1期。

③参见袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。

④参见王利明:《人工智能时代对民法学的新挑战》,《东方法学》2018年第3期。

⑤参见管晓峰:《人工智能与合同及人格权的关系》,《法学杂志》2018年第9期。

⑥参见刘洪华:《论人工智能的法律地位》,《政治与法律》2019年第1期。

⑦参见[美]约翰·弗兰克·韦弗:《人工智能机器人的法律责任》,郑志峰译,《财经法学》2019年第1期。

⑧G. S. Cole. Tort Liability for Artificial Intelligence and Expert Systems,Computer Law Journal , 1990, No.2.

⑨参见[英]约翰·金斯顿:《人工智能与法律责任》,魏翔译,《地方立法研究》2019年第1期。

⑩参见朱程斌、李龙:《人工智能作为法律拟制物无法拥有生物人的专属性》,《上海交通大学学报》(哲学社会科学版)2018年第6期。

B11参见吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。

B12参见胡玉鸿:《法律主体概念及其特性》,《法学研究》2008年第5期。

B13参见朱程斌:《论人工智能法人人格》,《电子知识产权》2018年第9期。

B14参见杨清望、张磊:《论人工智能的拟制法律人格》,《湖南科技大学学报》(社会科学版)2018年第6期。

B15参见张力、陈鹏:《机器人“人格”理论批判与人工智能物的法律规制》,《学术界》2018年第12期。

B16参见李霞:《成年监护制度的现代转向》,《中国法学》2015年第4期。

责任编辑:邓 林

Abstract:With the development of artificial intelligence (AI) technology, the traditional civil law system has been challenged, and there is great controversy in the academic circles about whether to endow AI with the status of civil legal subject. Based on the criterion of whether the creator and producer can control AI, AI can be divided into three levels: weak, medium and strong. On this basis, a series of civil liability problems caused by AI can be solved. Weak AI can be regarded as a thing without giving it the status of legal subject. For medium AI, the producers and creators bear corresponding civil liability or guardianship responsibility within the scope of control. Strong AI can completely get rid of the control of producers and creators and create new AI by themselves, and the law should give it independent subject status and regard it as a fictitious person or a special legal subject.

Key words:artificial intelligence (AI) ; civil subject; civil liability

推荐访问:民事责任 人工智能 主体 民事法律 地位