论文部分内容阅读
摘 要:因为缺乏赋予人工智能法律人格的必要性与可行性,人工智能仅作为一种法律关系的客体而存在。但人工智能却有其自身的特殊性,有别于一般的法律关系客体。因此,规范人工智能的运用和发展必须遵循以人为本的发展理念,明确其法律客体地位和责任承担规则,并明确人工智能生成作品的著作权归属。
关键词:人工智能;法律关系客体;法律人格
人工智能按照字面意义理解即人类所制造的智能,与此对应的智能称为自然智能。所谓自然智能,即自然进化所形成的智能。人类智慧是地球上迄今为止最高级的智能,因此人类智慧是自然智能的典型代表。关于人工智能至今没有统一的定义,不同学者对人工智能做出了不同的界定。以色列刑法学家Gabriel将人工智能定义为一种软件系统,该软件系统借助于载体,比如计算机等,可以实现对于人类思维的模拟。美国计算机科学家Stuart和Peter将人工智能进行了区分,人工智能包括认知体系和行为体系两个方面。美国的温斯顿教授将人工智能定义为具有类人行为能力的计算机。钟义信教授指出,人工智能就是指人类所制造的智能,也就是机器的智能。本文认为,所谓人工智能即人类在通过分析、研究人类智慧的基础上,人为制造的具有类似人类智慧能力的实体,该类实体能够以类人的方式思考和行动,可以辅助并增强人类的智慧和行动能力。
广义上的人工智能包括人工智能学科、人工智能软件、人工智能体。本文所称的人工智能乃人工智能体,即具有类似人类智慧和行动能力的人工智能实体,例如拟人机器人、机器手臂等实体形象。其具有主要有以下几个特征:第一,人工属性。人工智能非自然界天然孕育产生的,是由人工创造并制造出的产物,没有生命,其发展水平由人类的知识水平决定,其存在的价值在于满足人类的需求。人工智能的本质实际上是一种机器装置,而其与一般的机器装置相比,最大的不同点在于,其安装了人工智能系统软件或芯片等控制系统,可以实现各种目的性的工作,而人类则是基于自身的生物性和智慧性来完成特定工作。第二,工具性。人工智能系人类发明创造的产物,人类发明人工智能的目的在于希望借助人工智能不断增强自身的智慧能力,人工智能存在的价值在于为人类服务,不论是强人工智能,还是弱人工智能,不论其智能程度的高低,均不能改变其工具属性。人類与人工智能之间是不平等的关系,人工智能将永远的处于人类的控制之下,完全不受人类控制的人工智能将不会被允许存在,同时人类也会采取各种措施严格限制该类人工智能的存在。第三,智能性。人工智能与普通机器设备最本质的区别在于具有智能,普通机器设备完全不具有智能,人工智能具有一定程度的智能,可以承担部分或者全部以前需要人类才能完成的工作。人工智能拥有像人类一样思考或者行动的能力,甚至在某些方面拥有超越人类的能力。人工智能智能水平的发展规律是由弱到强,呈现逐步增强的趋势,人工智能的发展目标是使人工智能的智能水平不断提升,最终达到与人类智慧相近的程度。第四,实体性。人工智能应当是客观实际的存在,人工智能应当体现为两个部分的有机结合,一部分是具有认知和演绎推理决策能力的指挥控制系统,体现为软件或者芯片等,另一部分是接受指令,实现特定行为的行动系统,体现为一定的实体,例如机器人、机器狗等。软件等作为电子数据具有一定的虚拟性,但是人工智能的行动系统一定具有实体性,而只有两部分的完美组合,才能构成一个统一的人工智能,因此人工智能具有实体性。
随着科学研究的不断深入,人工智能的智能水平呈不断增强的趋势,阿尔法围棋是现阶段弱人工智能的典型代表,在阿尔法围棋现有研究的基础上将发展出一类具有更高智能水平的人工智能,我们称其为强人工智能。弱人工智能专用于受限领域和专用于解决具体问题,而强人工智能具有通用性,其运用于非受限领域和非专用于解决特定问题,强人工智能又被称为通用人工智能。自然人因具有理性特质而被法律赋予法律人格,而人工智能因为缺乏赋予法律人格的必要性和可行性,因而不能运用法律拟制技术如法人般赋予其独立法律人格。因此规范人工智能的运用和发展迫在眉睫。
一、遵循以人为本的发展理念
规范人工智能的运用和发展,应当确立以人为本的发展理念。在确定规范人工智能的一般原则时,需着重考虑有效防范风险、人类利益优先、人类利益最大化等因素。明确人工智能的法律地位为法律客体,人工智能在实质上仅是人类使用和利用的工具,因此规范人工智能的运用和发展应坚持以人为本的原则,采取顶层设计和底层评价相结合的方式。所谓顶层设计即注重顶层设计,设定某些道德原则或者理论行为作为判断人工智能行为正确与否的标准。所谓底层评价则是创造一定的自由环境,对于人工智能正确的行为予以奖励,错误的行为予以惩戒,以此来开发人工智能的道德敏感性,在日积月累中逐渐培养人工智能的道德能力。
以人为本理念的确立,应采取如下举措。首先确认人工智能的基本道德原则。参考美国作家艾萨克.阿西莫夫关于“机器人三定律”的内容,明确以下三方面的内容:一是人工智能不得危害人类的安全。人工智能具有工具属性,人类制造其的目的,在于希望运用人工智能这一工具,实现人类社会的繁荣和美好。人工智能的发展既不得危害人类的生命安全,也不能动摇人类的地位和侵害人类的权利。二是人工智能必须服从人类的指令。要明确人类对于人工智能的绝对控制地位,不允许有不受人类控制的人工智能的存在。故此人工智能难以产生独立的自主意思。三是不得放任人工智能危害人类安全的行为。对于人工智能遵循基本的道德原则和行为标准的行为予以肯定,对于人工智能不遵循基本的道德原则和行为标准的行为予以否定,并采取惩戒措施。
二、明确人工智能法律客体地位
主体与客体是相互对立的两个概念,并且是非此即彼的关系,不存在有既是主体又是客体的存在,主体与客体之间存在着难以逾越的界限。在自然人与自然的关系中,具有理性特质的自然人是主体,而不具有理性特质的其他存在则是客体,主体具有自由的意志,能够依据主观能动性主动的做出决策和行为,而客体则不具有自由的意志,处于被动的地位,客体是主体行为或施加影响所针对的对象。法律主体和法律客体均是法律层面的概念,仅在法律上具有意义。法律主体是指享有法律权利和承担法律义务的主体,法律客体是指法律主体行为所指向的特定对象。法律客体具有以下特征:第一,合法性,并非所有现实存在的物体均可以视为法律上的客体,法律上的客体应当具有合法性,不具有合法性的物体,不能成为法律客体,比如毒品等。第二,可控性,法律客体应当是能够被人类所认识和控制的,如果不能被人类所认识和控制则不能认定为法律客体。作为法律主体行为所指向的对象,法律客体应当是能够被支配的,如果超出了人类支配的范围,则不能成为法律客体。第三,有价值性,法律客体应当具有一定的价值性,没有价值的物体,不能成为法律客体。第四,独立性,法律客体应当是独立存在的,如果不是独立存在的,则不能作为法律客体。因此,人工智能不具有独立自主的意思能力,仅是在预先设定的程序范围内进行简单的数据输入和输出,人工智能不应当被认定为法律主体。但人工智能具有价值,能够被人类所认识和控制,具有合法性和独立性,符合法律客体的基本特征,人工智能是一类特殊的工具,应当被认定为法律客体。 三、明确人工智能致人损害的责任承担规则
人工智能与传统的机械设备有较大的差异,人工智能因智能水平更高,相对的拥有更多的自主权,同时介入人类社会活动的程度更为深入,范围更为广泛。人工智能的广泛运用,在带来高效和便捷的同时,不可避免的有损害人类合法权益的可能。人工智能致人损害如何确定责任主体,是由人工智能本身承担?还是应该由人工智能的研发者、生产者、运营者等承担?在人工智能不具有法律人格的情况之下,笔者认为人工智能致人损害责任的性质应当被认定为产品责任,承担责任的主体应当是人工智能的研发者、生产者、运营者等,人工智能不能成为承担损害责任的主体。人工智能致人损害的归责原则有过错责任和无过错责任,对于人工智能的所有者、使用者、运营者承担过错责任,对于人工智能的生产者、研发者承担无过错责任。有观点认为,这样的责任分配方式将会在一定程度上加重人工智能研发者、生产者及运营者等的法律责任,影响技术创新、发展的积极主动性,并且导致人工智能致人损害法律责任最终由程序员来承担。为了促进人工智能的研究和运用,适当减轻人工智能的研究者、生产运营者等的法律责任,应当建立健全人工智能保险制度和赔偿基金制度,这一举措既能保障受害者所受到的损失能够得到有效的补偿,同时也能不影响研发者、生产者及运营者研究和运用人工智能的积极性。
四、明确人工智能生成作品的著作权归属
2017年5月,一款人工智能机器人创作了一本名为《阳光失去了玻璃窗》的诗集,该诗集经出版公司正式出版发行,该机器人有一个文艺的名字,即“小冰”。该诗集具有重要的意义,因为这是第一本由人工智能創作的诗集。这一事件引发了法学理论界的热烈探讨,人工智能创作的内容是否符合作品认定的标准?如果认定人工智能创作内容符合作品认定标准,则该作品的著作权应当归属于谁?本文认为,在人工智能不具有法律人格的前提下,人工智能生成内容是否属于作品,应当依据著作权法关于作品认定的标准来进行,如果按照著作权法的规定可以被认定为作品,则属于作品。人工智能创作产生的作品,其著作权归属人工智能的研发者、生产者、运营者或者所有者等,其著作权不能归属于人工智能,但是人工智能可以拥有署名权。有观点认为一方面认定人工智能生成的内容属于作品,但是另一方面又认定其不享有著作权,这样在逻辑上存在矛盾。本文认为这并不矛盾,因为在著作权法上作品的创作者不是作品的著作权人的情况并不少见。
五、加强个人信息保护
在信息技术高速发展的今天,信息数据的传播速度不断加快,个人信息的使用频率不断的提升,均增加了个人信息被泄露的风险。人工智能的研究和运用需要大量的数据作为支撑,而所使用的数据中就包括了部分的个人信息数据和隐私,如果对于数据的使用不当,就有造成个人信息和隐私被泄露的风险,因此如何规范个人信息的使用和保护,具有重要的意义。就个人层面而言,现在的许多电子产品均有自动记录个人相关数据的功能,比如位置定位等,许多的网站或者APP要求用户在进行注册时输入个人相关信息,包括姓名,出生日期和手机号码等,这些均有泄露个人信息和隐私的可能。因此在日常生活当中,应当时刻注意个人信息的保护,不在陌生的网站和APP上进行注册,并不要输入个人的重要身份信息等。就企业层面而言,应当牢固树立保护个人信息的意识,深刻认识到保护用户个人信息的重要性。采取必要的安全措施,保护用户的个人信息安全,防止用户个人信息被泄露,或者被他人非法的窃取。建立健全内部管理机制。就国家层面,应当加快制定个人信息保护的立法工作,美国、欧盟都均已经制定了关于个人信息或隐私保护的相关法律规范,我国可以在吸收借鉴的基础上,结合我国的实际情况,加紧制定我国的个人信息保护或隐私保护的法律规范,新的《中华人民共和国民法典(草案)》正在如火如荼的讨论当中,新法典将为个人信息与个人隐私的保护提供强有力的法律依据。
参考文献
[1]Gabriel,H.The criminal Liability of artificial intelligence entities-from science fiction to legal social contro[J].Akron Intellectual Property Journal,2010,2(2):171-175.
[2]Stuart,J.R.Peter.N..Artificial Intelligence:A Modem Approach [M].3rd ed.Upper Saddle River,NJ:Pearson Education,Inc,2009:4-5
[3]林夕.人工智能时代下的教育遐想[J].教育实践与研究,2017,21;1-1.
[4]钟义信.人工智能:概念?方法?机遇[J].科学通报,2017,62(22):2473-2479.
作者简介:
姜淑明(1963-,女,湖南师范大学法学院副教授) 胡明星(1989-,男,望城县人民法院)
(作者单位:1.湖南师范大学法学院;2.望城县人民法院)
关键词:人工智能;法律关系客体;法律人格
人工智能按照字面意义理解即人类所制造的智能,与此对应的智能称为自然智能。所谓自然智能,即自然进化所形成的智能。人类智慧是地球上迄今为止最高级的智能,因此人类智慧是自然智能的典型代表。关于人工智能至今没有统一的定义,不同学者对人工智能做出了不同的界定。以色列刑法学家Gabriel将人工智能定义为一种软件系统,该软件系统借助于载体,比如计算机等,可以实现对于人类思维的模拟。美国计算机科学家Stuart和Peter将人工智能进行了区分,人工智能包括认知体系和行为体系两个方面。美国的温斯顿教授将人工智能定义为具有类人行为能力的计算机。钟义信教授指出,人工智能就是指人类所制造的智能,也就是机器的智能。本文认为,所谓人工智能即人类在通过分析、研究人类智慧的基础上,人为制造的具有类似人类智慧能力的实体,该类实体能够以类人的方式思考和行动,可以辅助并增强人类的智慧和行动能力。
广义上的人工智能包括人工智能学科、人工智能软件、人工智能体。本文所称的人工智能乃人工智能体,即具有类似人类智慧和行动能力的人工智能实体,例如拟人机器人、机器手臂等实体形象。其具有主要有以下几个特征:第一,人工属性。人工智能非自然界天然孕育产生的,是由人工创造并制造出的产物,没有生命,其发展水平由人类的知识水平决定,其存在的价值在于满足人类的需求。人工智能的本质实际上是一种机器装置,而其与一般的机器装置相比,最大的不同点在于,其安装了人工智能系统软件或芯片等控制系统,可以实现各种目的性的工作,而人类则是基于自身的生物性和智慧性来完成特定工作。第二,工具性。人工智能系人类发明创造的产物,人类发明人工智能的目的在于希望借助人工智能不断增强自身的智慧能力,人工智能存在的价值在于为人类服务,不论是强人工智能,还是弱人工智能,不论其智能程度的高低,均不能改变其工具属性。人類与人工智能之间是不平等的关系,人工智能将永远的处于人类的控制之下,完全不受人类控制的人工智能将不会被允许存在,同时人类也会采取各种措施严格限制该类人工智能的存在。第三,智能性。人工智能与普通机器设备最本质的区别在于具有智能,普通机器设备完全不具有智能,人工智能具有一定程度的智能,可以承担部分或者全部以前需要人类才能完成的工作。人工智能拥有像人类一样思考或者行动的能力,甚至在某些方面拥有超越人类的能力。人工智能智能水平的发展规律是由弱到强,呈现逐步增强的趋势,人工智能的发展目标是使人工智能的智能水平不断提升,最终达到与人类智慧相近的程度。第四,实体性。人工智能应当是客观实际的存在,人工智能应当体现为两个部分的有机结合,一部分是具有认知和演绎推理决策能力的指挥控制系统,体现为软件或者芯片等,另一部分是接受指令,实现特定行为的行动系统,体现为一定的实体,例如机器人、机器狗等。软件等作为电子数据具有一定的虚拟性,但是人工智能的行动系统一定具有实体性,而只有两部分的完美组合,才能构成一个统一的人工智能,因此人工智能具有实体性。
随着科学研究的不断深入,人工智能的智能水平呈不断增强的趋势,阿尔法围棋是现阶段弱人工智能的典型代表,在阿尔法围棋现有研究的基础上将发展出一类具有更高智能水平的人工智能,我们称其为强人工智能。弱人工智能专用于受限领域和专用于解决具体问题,而强人工智能具有通用性,其运用于非受限领域和非专用于解决特定问题,强人工智能又被称为通用人工智能。自然人因具有理性特质而被法律赋予法律人格,而人工智能因为缺乏赋予法律人格的必要性和可行性,因而不能运用法律拟制技术如法人般赋予其独立法律人格。因此规范人工智能的运用和发展迫在眉睫。
一、遵循以人为本的发展理念
规范人工智能的运用和发展,应当确立以人为本的发展理念。在确定规范人工智能的一般原则时,需着重考虑有效防范风险、人类利益优先、人类利益最大化等因素。明确人工智能的法律地位为法律客体,人工智能在实质上仅是人类使用和利用的工具,因此规范人工智能的运用和发展应坚持以人为本的原则,采取顶层设计和底层评价相结合的方式。所谓顶层设计即注重顶层设计,设定某些道德原则或者理论行为作为判断人工智能行为正确与否的标准。所谓底层评价则是创造一定的自由环境,对于人工智能正确的行为予以奖励,错误的行为予以惩戒,以此来开发人工智能的道德敏感性,在日积月累中逐渐培养人工智能的道德能力。
以人为本理念的确立,应采取如下举措。首先确认人工智能的基本道德原则。参考美国作家艾萨克.阿西莫夫关于“机器人三定律”的内容,明确以下三方面的内容:一是人工智能不得危害人类的安全。人工智能具有工具属性,人类制造其的目的,在于希望运用人工智能这一工具,实现人类社会的繁荣和美好。人工智能的发展既不得危害人类的生命安全,也不能动摇人类的地位和侵害人类的权利。二是人工智能必须服从人类的指令。要明确人类对于人工智能的绝对控制地位,不允许有不受人类控制的人工智能的存在。故此人工智能难以产生独立的自主意思。三是不得放任人工智能危害人类安全的行为。对于人工智能遵循基本的道德原则和行为标准的行为予以肯定,对于人工智能不遵循基本的道德原则和行为标准的行为予以否定,并采取惩戒措施。
二、明确人工智能法律客体地位
主体与客体是相互对立的两个概念,并且是非此即彼的关系,不存在有既是主体又是客体的存在,主体与客体之间存在着难以逾越的界限。在自然人与自然的关系中,具有理性特质的自然人是主体,而不具有理性特质的其他存在则是客体,主体具有自由的意志,能够依据主观能动性主动的做出决策和行为,而客体则不具有自由的意志,处于被动的地位,客体是主体行为或施加影响所针对的对象。法律主体和法律客体均是法律层面的概念,仅在法律上具有意义。法律主体是指享有法律权利和承担法律义务的主体,法律客体是指法律主体行为所指向的特定对象。法律客体具有以下特征:第一,合法性,并非所有现实存在的物体均可以视为法律上的客体,法律上的客体应当具有合法性,不具有合法性的物体,不能成为法律客体,比如毒品等。第二,可控性,法律客体应当是能够被人类所认识和控制的,如果不能被人类所认识和控制则不能认定为法律客体。作为法律主体行为所指向的对象,法律客体应当是能够被支配的,如果超出了人类支配的范围,则不能成为法律客体。第三,有价值性,法律客体应当具有一定的价值性,没有价值的物体,不能成为法律客体。第四,独立性,法律客体应当是独立存在的,如果不是独立存在的,则不能作为法律客体。因此,人工智能不具有独立自主的意思能力,仅是在预先设定的程序范围内进行简单的数据输入和输出,人工智能不应当被认定为法律主体。但人工智能具有价值,能够被人类所认识和控制,具有合法性和独立性,符合法律客体的基本特征,人工智能是一类特殊的工具,应当被认定为法律客体。 三、明确人工智能致人损害的责任承担规则
人工智能与传统的机械设备有较大的差异,人工智能因智能水平更高,相对的拥有更多的自主权,同时介入人类社会活动的程度更为深入,范围更为广泛。人工智能的广泛运用,在带来高效和便捷的同时,不可避免的有损害人类合法权益的可能。人工智能致人损害如何确定责任主体,是由人工智能本身承担?还是应该由人工智能的研发者、生产者、运营者等承担?在人工智能不具有法律人格的情况之下,笔者认为人工智能致人损害责任的性质应当被认定为产品责任,承担责任的主体应当是人工智能的研发者、生产者、运营者等,人工智能不能成为承担损害责任的主体。人工智能致人损害的归责原则有过错责任和无过错责任,对于人工智能的所有者、使用者、运营者承担过错责任,对于人工智能的生产者、研发者承担无过错责任。有观点认为,这样的责任分配方式将会在一定程度上加重人工智能研发者、生产者及运营者等的法律责任,影响技术创新、发展的积极主动性,并且导致人工智能致人损害法律责任最终由程序员来承担。为了促进人工智能的研究和运用,适当减轻人工智能的研究者、生产运营者等的法律责任,应当建立健全人工智能保险制度和赔偿基金制度,这一举措既能保障受害者所受到的损失能够得到有效的补偿,同时也能不影响研发者、生产者及运营者研究和运用人工智能的积极性。
四、明确人工智能生成作品的著作权归属
2017年5月,一款人工智能机器人创作了一本名为《阳光失去了玻璃窗》的诗集,该诗集经出版公司正式出版发行,该机器人有一个文艺的名字,即“小冰”。该诗集具有重要的意义,因为这是第一本由人工智能創作的诗集。这一事件引发了法学理论界的热烈探讨,人工智能创作的内容是否符合作品认定的标准?如果认定人工智能创作内容符合作品认定标准,则该作品的著作权应当归属于谁?本文认为,在人工智能不具有法律人格的前提下,人工智能生成内容是否属于作品,应当依据著作权法关于作品认定的标准来进行,如果按照著作权法的规定可以被认定为作品,则属于作品。人工智能创作产生的作品,其著作权归属人工智能的研发者、生产者、运营者或者所有者等,其著作权不能归属于人工智能,但是人工智能可以拥有署名权。有观点认为一方面认定人工智能生成的内容属于作品,但是另一方面又认定其不享有著作权,这样在逻辑上存在矛盾。本文认为这并不矛盾,因为在著作权法上作品的创作者不是作品的著作权人的情况并不少见。
五、加强个人信息保护
在信息技术高速发展的今天,信息数据的传播速度不断加快,个人信息的使用频率不断的提升,均增加了个人信息被泄露的风险。人工智能的研究和运用需要大量的数据作为支撑,而所使用的数据中就包括了部分的个人信息数据和隐私,如果对于数据的使用不当,就有造成个人信息和隐私被泄露的风险,因此如何规范个人信息的使用和保护,具有重要的意义。就个人层面而言,现在的许多电子产品均有自动记录个人相关数据的功能,比如位置定位等,许多的网站或者APP要求用户在进行注册时输入个人相关信息,包括姓名,出生日期和手机号码等,这些均有泄露个人信息和隐私的可能。因此在日常生活当中,应当时刻注意个人信息的保护,不在陌生的网站和APP上进行注册,并不要输入个人的重要身份信息等。就企业层面而言,应当牢固树立保护个人信息的意识,深刻认识到保护用户个人信息的重要性。采取必要的安全措施,保护用户的个人信息安全,防止用户个人信息被泄露,或者被他人非法的窃取。建立健全内部管理机制。就国家层面,应当加快制定个人信息保护的立法工作,美国、欧盟都均已经制定了关于个人信息或隐私保护的相关法律规范,我国可以在吸收借鉴的基础上,结合我国的实际情况,加紧制定我国的个人信息保护或隐私保护的法律规范,新的《中华人民共和国民法典(草案)》正在如火如荼的讨论当中,新法典将为个人信息与个人隐私的保护提供强有力的法律依据。
参考文献
[1]Gabriel,H.The criminal Liability of artificial intelligence entities-from science fiction to legal social contro[J].Akron Intellectual Property Journal,2010,2(2):171-175.
[2]Stuart,J.R.Peter.N..Artificial Intelligence:A Modem Approach [M].3rd ed.Upper Saddle River,NJ:Pearson Education,Inc,2009:4-5
[3]林夕.人工智能时代下的教育遐想[J].教育实践与研究,2017,21;1-1.
[4]钟义信.人工智能:概念?方法?机遇[J].科学通报,2017,62(22):2473-2479.
作者简介:
姜淑明(1963-,女,湖南师范大学法学院副教授) 胡明星(1989-,男,望城县人民法院)
(作者单位:1.湖南师范大学法学院;2.望城县人民法院)