人工智能法律人格的否定及其规制构想

来源 :中国石油大学学报(社会科学版) | 被引量 : 0次 | 上传用户:qrl307821498
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
  摘要:人工智能法律属性的讨论应立足于理性本位,试图突破客体结构限制而将人工智能人格化的观点混淆了人类自主性与工具自动化的本质区别。不同于自然人或者法人,人工智能未能发展出社会学意义上的理性意识,也不具备遵守和解释法律规范的能力,赋予其法律人格理由不足且没有必要。但人工智能与民法上的物仍有较大区别,鉴于其类人性、技术性的特征,应当界定为法律意义上的特殊物格。规制方面,以侵权归责原则为主,同时参考著作权、产品责任等具体责任认定规则,以回应人工智能科技发展与法律规制的现实需要。
  关键词:人工智能;法律人格;理性主义;特殊物格
  中图分类号:D923
  文献标识码:A
  文章编号:1673-5595(2021)04-0084-08
  2010年以来,人工智能发展的狂热遍及全球,应用层面一路高歌猛进,相关话题更是层出不穷。2017年5月,AlphaGO以3:0击败人类顶尖棋手柯洁,世界为之一震。当然,棋盘上的“耀武扬威”只是冰山一角,人工智能在各行各业均有亮眼的表现:特斯拉无人驾驶汽车颠覆了传统道路规则,沙特授予机器人“索菲亚”全球首个公民身份,微软“小冰”创作的新闻与专业编辑的新闻毫无差异。以上种种无不标志着人工智能正大踏步地走进人们的生产、生活。当然,人工智能不仅是科学的话题,更是一个法律的话题。当科技日益成熟,法学家往往比科学家更有发言权,其中,赋予人工智能法律人格便成为学者们孜孜以求的目标。
  实践中,国内外学者纷纷就赋予人工智能法律人格的可行性各抒己见,欧盟、日本、美国、俄罗斯以及我国也相继开展相关的立法探索。2016年,欧盟法律事务委员会制定的《欧盟机器人民事法律规则》将智能化机器人界定为“电子人”,并建议赋予其著作权等法律权利与义务。[1]2016年2月,美国加州公路安全管理局将发生交通事故的人工智能系统认定为“司机”。[2]2017年,俄罗斯学者起草第一部机器人法草案——《格里申草案》,该草案提出对机器人的法律调整适用动物或者法人的调整规则,进而增设专业的办理主管机关。[3]2017年,我国发布《新一代人工智能发展规划》,要求“建立追溯与问责机制,明确人工智能法律主体以及相关权利、义务和责任”①。如此看来,赋予人工智能法律人格似乎已是大势所趋。
  传统法学理论与新兴事物发生碰撞时,如何进行理性的辨别与论证至关重要。事实上,当前部分学者仅凭一腔热血便著书立说,缺乏冷静的思考与严谨的推理,由此得出的结论自然前后矛盾、漏洞百出,而这无疑偏离了法学研究的基本立场与方法。因此,笔者在总结学界现有研究成果的基础上,对人工智能法律人格进行针对性的否定辨析,明确人工智能的特殊物格定位,进而构建人工智能的法律规制路径,以期对我国人工智能法学研究有所裨益。
  一、人工智能法律人格的学界论争
  长久以来,以智能机器人为代表的人工智能理所当然地被人们归为“物”的一种。然而,随着强化学习、仿真模拟、生物识别等技术的发展及交互融合,人工智能类人化程度不断提高,越来越多的学者表达出对其作为法律客体的质疑,并提议对其解禁,使之具有法律上的人格。而在否定人工智能法律人格的学者看来,人工智能的理性意识并不具有社会学意义上的价值,也无法与现有的法律规范体系兼容,因此,赋予人工智能法律人格有待商榷。两派学者各执一词,争论颇为激烈。
  对人工智能的法律人格持“肯定说”的学者数量较为可观,与此相关的论著也较多。刘宪权通过对“强人工智能”辨认能力与控制能力的分析,主张拥有自我意识的人工智能与自然人并非泾渭分明,也就是说在自主意识支配下的“冰冷”的机器人与有生命的自然人无异。[4]郭少飞以人工智能所具备的规范性和自主性为逻辑起点,同时考量社会、文化、伦理以及哲学等法外因素,主张赋予人工智能以“电子人”身份。[5]袁曾认为强人工智能所具有的独立自主意识决定了其法律人格,但这种法律人格显然与自然人或法人无法相提并论,人工智能责任承担能力、范围是有限的,因此可以认定为“有限法律人格”。[6]除此之外,学界关于人工智能法律定位的理论还有“次等法律人格说”②“位格加等说”③和“人工类人格说”④等,在此不再一一赘述。
  当前持“否定说”的学者们多运用法律实证主义的方法论证人工智能不具有法律人格。皮勇认为受人类控制的人工智能根本不具有独立的主体性,并不能为现行法律中的责任与刑罚所规制,赋予其法律主体地位极易与现有法律体系产生“排异反应”。[7]时方则根据意志自由的认识要素与意志要素进行分析,主张法律规范只对具有社会评价意义的目的性举动施加要求或者禁止,人工智能并不符合法律主体认定的本质内涵。[8]冀洋指出“肯定说”学者对人工智能辨认与控制能力的认识存在误解,而且当前的法律责任体系仍应以人类为中心,完全没有必要因科技的进步而试图重构原有的责任体系。[9]
  综观两派学者的主张,笔者以为,当前赞同赋予人工智能法律人格的观点不仅缺乏基础理论的支持,在论证逻辑上也难以自洽。
  第一,“肯定说”学者对人与物的区分存在误读。“有限法律人格说”一方面强调人工智能本质上为工具,明显属于客体范围;另一方面却极力证明其具有独立思考能力,应当赋予法律人格。可见,“肯定说”学者的主张并没有勾画出完整统一的论证体系,反而陷入前后矛盾的逻辑误区。同样,“人工類人格说”“电子人格说”也认为人工智能具有人类伦理意识,而这种伦理意识又是基于人类的制造,因此被称为“人工类人格”或“电子人格”。但是,“人工”的附属性与“人格”的独立性存在天生的矛盾。更有甚者,有学者将人工智能定位为“人工类人格”的同时,又将其归入“伦理物格”的范畴,[10]此种论证过程不仅难以说服其他学者,反而增加了对其自身主张的合理怀疑。
  第二,“肯定说”学者对法律主体的扩张逻辑认识不足。观古今中外,尽管法律主体的外延不再局限于生物学意义上的人,但人格的扩展并不是一个无限的过程,而是有一定规律的。这种规律表现为人格的扩展沿着自然人以及社会组织两个向度进行,前者从自由民扩展到异乡人、奴隶乃至黑人、妇女,后者则由最初的自然人扩展到法人、其他组织。[11]总体来看,便是“伦理性—经济性—工具性”的转化过程。而“肯定说”学者仅根据人工智能具有远超人类的智识便主张赋予人工智能法律人格,其理想色彩与功利主义过于浓厚。更何况,人工智能法律人格的赋予必然引起更多人格类型的“觉醒”。例如,自20世纪70年代以来,赋予动物法律主体资格的呼声日益高涨,倘若动物被赋予了法律人格,那植物呢?其他生命呢?彼时,人类的生存空间或许要因自己设定的规则而萎缩。可见,仅在技术假想之上作过于细致的制度设计,并不能为人工智能法律人格之赋予提供充足的理由。   第三,“肯定说”学者忽略了人工智能人格化后的社会风险。暂且不谈立法成本问题,一旦赋予人工智能法律人格,即意味着允许其自负责任,这显然会偏离人工智能的正常发展方向。倘若如此,制造者、研发者不必为人工智能的行为负责,甚至在设计、制造阶段便不会考虑技术风险与社会风险,这不仅违反法律规范中权义责建构的意义,有失公平正义之价值,更会为社会安全稳定增加诸多不确定因素。
  可见,人工智能法律人格“肯定说”学者的主张似乎并未遵循严谨的法哲学意义上的理性与意志之证成,也绝非人权保护的需要,更像是单纯的“去人类中心化”的理念使然。[12]如果一味追求对人工智能法律人格“伪命题”的解答,不假思索扩张法学理论反而会走入形而上的学术误区。
  反观人工智能法律人格“否定说”的观点,已注意到了人工智能缺乏社会学意义上的自我意识,且其本身无法与法律规范中的权利义务相统一。而且,“否定说”学者并没有沉迷于强人工智能的乌托邦里,而是立足实际,通过实证推理与解释技术实现了人工智能与现有法律的契合。例如,某些人工智能软件可视为智力成果的一种,从而归入《中华人民共和国民法典》(以下简称《民法典》)第115条中列明的物的范畴,同时成为著作权的保护客体;人工智能致害则可坚持解释论视角,适用产品责任规则或者类推适用动物饲养人、管理人责任。可见,现有的法律规范面对人工智能并非无可奈何,这亟待“肯定说”学者们的深思与警醒。
  二、人工智能法律人格否定之再审视
  尽管人工智能法律人格“否定说”更符合公众认知与理性逻辑,但事实上,“肯定说”学者的主张一直处于优势地位。究其原因,有两点值得反思:其一,“否定说”学者过于关注人工智能理性思维、独立意识等哲学甚至是玄学理论的应用,而没有找到一种可修改、可证伪、可操作的论证方式,以至于虽有的放矢,却千篇一律,毫无新意;其二,即便部分学者凭借丰富的哲学、社会学、法学、心理学等知识推翻了“肯定说”的主张,但其忽略了更为重要的后续问题,那就是人工智能应该如何定位,若笼统地归为民事法律关系客体的大类范畴,则会加剧理论的脆弱性。要妥善解决以上两个问题,不仅要在自然法意义上讨论人工智能是否符合人的定义,还应从实证法角度观察人工智能是否具备成为法律人格的条件。最重要的是,在数字法治时代下,为实现对人工智能的有效规制,亟待为人工智能寻找具体的法律框架。
  自然人是无可争议的法律人格主体,法人以及其他组织在漫长的法治进程中也被赋予了“鲜活的生命”。对比人工智能与自然人、法人法律人格的生成逻辑,便可验证其法律人格的虚假性。
  (一)人工智能不符合法律对“理性人”的定義
  尽管学界对“理性人”的表述各有不同,但最终殊途同归,基本都落到了认知理性、行为理性、权责义的享有等范畴。因此,对于人工智能法律人格的辨析可从两个方面寻找思路,分别是理性意识和遵守与解释法律规范的能力。
  1.人工智能不具备“人之魂”——理性意识的缺失
  美国大法官霍姆斯曾言:法律的生命在于经验而不是逻辑。[13]霍姆斯的观点说明法律不仅是规范体系,还是价值与伦理体系,这种体系下的主体预设便是理性人。理性人的设定在我国法律规范中同样有所体现,我国《民法典》总则编中的民事主体主要包括自然人和法人、非法人组织等,其主体地位主要通过民事权利能力与民事行为能力予以确认。其中自然人民事权利能力始于出生终于死亡,民事行为能力则更多考虑到年龄、智力、精神健康状态等因素。可见,《民法典》中的民事主体认定倾向于对理性的考量,而这种理性可以简化为认知理性与行为理性。前者内化于人的感性认识与逻辑推理,是透过现象看本质的思维过程;后者则是基于前者认知,权衡利弊后对行为结果的预测与选择。
  人工智能只是人类感官与智能的机械延伸,本身没有欲望与感情,可以说人工智能的理性属于数字理性,其算法程序与运行规则都是人类预先设计的(至少现在是这样的)。具体而言,一方面,人工智能缺乏认识理性。广义的认识包括识别与感情。尽管智能机器人早已具备远超人类的识别能力,但感情的证明颇为艰难。人类之所以作为道德对待的对象,正是因为人类有感情,这种感情体现在对快乐的追求、对痛苦的逃避、对可怜人的同情。虽然机器人完全可以在高温或者极寒的环境中表现出痛苦、恐惧的状态,但这种状态并非内发形成的,不排除人类指令控制的可能。[14]另一方面,人工智能缺乏行为理性。在行为理性方面,人类总是能够自动根据特定的情景设定阶段性目标,即人类并不会直接去执行总目标,而是将过程分为数个阶段性目标,逐一达成;而人工智能的运行机理在于通过在海量数据库中“暴力穷举”式的搜索找出最佳答案,这一过程目的唯一、方式单一,以至于有学者曾言:“凡是可以描述的、重要的、有固定规则和标准答案的工作岗位,都有被智能机器人取代的可能。”[15]因此,从理性本位考量,人工智能缺少成为人的“灵魂”,完全没有理由赋予其法律人格。
  2.人工智能不具备“人之能”——解释与遵守法律规范能力的缺乏
  阿西莫夫在科幻小说《我,机器人》中曾提出“机器人三定律”:第一,不伤害定律,机器人不得伤害人类,也不能对受到伤害的人类袖手旁观;第二服从定律,机器人必须服从指令,但不得违反第一定律;第三自保定律,机器人应尽可能保护自己,但不得违反第一第二定律。同时,为了阻止人类彼此伤害,也为了避免前述定律的自相矛盾,后人又补充了“第零定律”,即机器人不得伤害人类整体,或者坐视人类整体受到伤害。检视人工智能与法律规则的“碰撞”,人工智能没有服从法律规范的期待可能性,也无法感知违法行为对社会造成的消极后果,自然欠缺将其纳入法律主体范围的可行性。即使在未来,人工智能突破了技术“奇点”,能够做到遵从法律规范,但对法律规范的解释又会成为难题。基于法教义学的视角,人类遵守规则最好的方式是解释规则。对于人类、机器人、命令、保护、伤害等法言法语的解释,人与人之间尚有不同理解,机器人与人、机器人与机器人之间更会大相径庭。也许人工智能错误理解保护人类的含义,算法自主加剧认知危机,最终演化为算法战争。   综上,人类创设人工智能的直接目的是让人从劳动中解放出来,最终目的是提高人类社会的整体福利,其必然不具备独立意识与自然理性。如果人类赋予人工智能独立意识,无疑如造物主般创设了新的物种,这显然与人工智能的设计初衷相背离。同时,人工智能无论如何都无法取得社会学意义上的身份与财产,不具备成为法律主体的物质性条件,更无法做到理解与遵守规则。因此,人工智能难以符合法律所接受和关怀的理性人的定义。
  (二)人工智能难以契合拟制主体法理
  既然人工智能无法比照自然人获得法律人格,那么能否另辟蹊径,借助“非人可人”的法律拟制技术,转而走外部赋权的路径呢?笔者以为此种解释同样存在问题。
  第一,法人属于人的集合。虽然法人与人工智能都难以与自然人的生理构造与伦理观念相契合,既没有可谴责的灵魂也没有可受罚的身躯。法人作为组织体,无论是社团法人还是财团法人,均是基于人的意志而设立的特定组织。也正因为法人的决策是由自然人做出、法人的意志体现着自然人整体的意志,所以我国对单位犯罪采取双罚制。双罚制的设计逻辑又反证法人的责任并非其独立承担,而是与背后的自然人共同承担,这更加印证了法人所谓的“生命”与“灵魂”源于人脑。反观人工智能,其作出的决定是基于数据与算法的集合,缺乏人格集合的事实基础,无法发挥法律拟制的技术价值。[16]因此,仅单纯地观察法人的运行逻辑完全无法得出人工智能具有法律人格的结论,更难以挣脱以伦理观念为中心的归责桎梏。
  第二,赋予法人拟制人格是社会发展的必然结果。古罗马法曾就生物人和人格人作出区分,强调了“homo”(生物人)、“persona”(身份、面具)与“caput”(权利义务主体)的区别,并设计人格减等制度对市民的人格进行限制与规范,这表明法律对象的评价逐渐由市民中心转向社会中心。正是顾及法人在社会中的独立地位与独立价值才使得其成为法律主体有了可能。这种社会价值体现在两个方面:其一,分离个人财产与团体财产,使责任相互独立,有利于规避风险投资,推动资本主义发展;其二,将个人与法人两种人格的地位独立,节约了司法成本,便利了交易与诉讼。而人工智能依靠大数据与算法运行,不具备控制自身行为的意志能力,其本身的归属并不明确,更枉谈独立地位之证成。而且,人工智能法律人格宣示意义远胜于实际作用,其不会为解决社会运作中的问题带来突破性方案,更不会像法人一般产生巨大的社会效益。
  第三,法人的目的仍是服务自然人。法人本质上属于自然人个体人格的群体化,即便“非人可人”,那也是对自然人能力的顺从与周延,拟制技術的目的仍是服务于自然人。因此,基于法人与自然人的同质性,将法人纳入民事主体中无可厚非。如果将人工智能拟制为“法人”或者“电子法人”,不但在实践中缺乏可操作性,更重要的是会丧失“服务人”的拟制目的,有导致人的“贬值”之虞。
  三、人工智能的法律定位:特殊物格
  前文提到,造成“否定说”主张劣势的另一大原因是其没有为人工智能寻找到精准适宜的法律框架。笔者以为,人工智能只是人类智商与行为简单地、机械地延伸,本身不具备成为法律意义上主体的可能性,不应当赋予法律人格,而应在民法客体的范围内寻找归宿,特殊物格便是其中颇为适宜的选择。
  (一)特殊物格的逻辑起点
  在罗马法中作为社会主体的人与权利客体的物,在几千年的发展历程中趋向两极化,即人格的类型逐渐单一化,以人格减等为联系纽带的多元人格走向单一的平等人格;而物的发展却因人对社会认识与支配范围的提高而有了极大扩展,呈现出多样化的样态,[17]这就使得物的种类增加、共性减弱、个性凸显,物格的内涵逐渐丰富。
  物格,顾名思义,是指物的资格或标准。法律意义上的物格是相对于人格而言的概念,强调物作为权利客体的资格、规格或格式。[18]当前我国并没有明确物格的法律定义,而是以财产作为替代。[19]但法律概念的缺失并不代表现实需求的虚无,相反,以人工智能为代表的新兴事物正期待着物格理论的回归。一方面,通过借鉴历史上法律人格的创设逻辑塑造民法物格的基本结构,可以实现物的类型化保护。质言之,将不同的物赋予不同的物格,方便立法者依据法律主体支配力、物格特性等因素确定不同的保护力度,最终制定不同的规制方法。另一方面,特殊物格的结构设计为以人工智能为代表的新事物预留了制度空间。特殊物格并不是封闭的系统,而是始终保持着开放的态势,这就意味着即便未来出现了颠覆人们传统认知的事物,也可以在现有法律框架中找到规制方法,避免了无法可依的尴尬局面。
  通说认为,根据物格利益的不同,可将其分为伦理物格、一般物格及特殊物格。伦理物格是指具有生命伦理价值之物的资格,包括与人体或者人格利益有关的物,如死胎、尸体、脱离人体的器官等;也包括其他生命类型的物,如宠物、野生动物、植物。一般物格是指民法中的物的统称,也就是传统的动产或不动产。特殊物格指具有特殊法律属性并应以特殊规则加以规范的物的资格,如证券、作品、电子货币、虚拟财产等。在理解物格类型的基础上,接下来要做的便是为人工智能寻找适宜的规制框架。
  (二)人工智能特殊物格的理性证成
  人工智能不同于民法上一般的物,也与人类生理构造、思维逻辑有着本质区别,不宜归入伦理物格或一般物格的范畴。具言之,一方面,伦理物格始终伴随着生命与人格利益,可谓是民法客体体系中地位最高、支配力最强的首要物格。如此,对于此类物格的规制与保护力度应尽可能趋同于法律主体上的自然人。而如前文所述,人工智能无论如何都不具备成为人的物质性条件,更无法产生理性意识与解释能力,这与伦理物格所概括的物的属性格格不入。另一方面,一般物格是民法中最基本、支配力最低的物的资格,属于兜底的物的资格。传统民法对一般物格内容的划分仅局限于有体物,显然无法应对当前高端的科技产物与复杂的社会关系。因此,若将人工智能笼统的归为一般物格的范畴,难免有牵强附会之嫌。   将人工智能归为伦理物格或者一般物格均有一定的局限性。参考人工智能的构造、运行机理以及与人类的关系,宜塑造为特殊物格,从而确定其法律地位、权利规则以及保护措施。将人工智能定位于特殊物格有多重意义。首先,确立人工智能特殊物格制度,有利于厘清人机定位。人工智能是法律客体上的物,更准确地说是法律客体中特殊的物;而人作为法律主体中的自然人,享有权利并承担义务。主客体分类可以明确人与机器人的法律地位,对当前法学界人工智能的研究指引颇有益处。其次,明确人工智能特殊物格定位,有利于为人工智能提供区分化保护。从成本-效益角度来看,与人类关系密切、技术设计复杂的人工智能应得到最为完善的保护,而对被广泛应用、操作简单的人工智能的保护力度则稍逊一筹。最后,明确人工智能特殊物格定位,有利于人工智能的可控发展。将人工智能归为客体范畴,意味着设计者、制造者、使用者仍应尽必要的注意义务,同时人工智能致害事件发生后也须承担相应的责任。这将有助于政府建立和维护人工智能的管理秩序,从而实现安全可控的发展。
  四、特殊物格视野下人工智能的法律规制构想
  行文至此,至少可以明确人工智能特殊物格的法理归属,而且该构想亟待在当前的立法规范中予以体现。基于此,如何实现《民法典》等法律规范的补充与完善,如何构建与人工智能有关的责任承担机制,便成为下文构思的重点。
  (一)人工智能特殊物格的宏观立法建议
  利用特殊物格的理论框架,能够很好地解决人工智能的属性定位与规制问题。遗憾的是,现行立法并无对特殊物格的表述,使得人工智能的法治化建设缺乏明确的指引。因此,笔者认为,基于人工智能与生产生活高度融合以及数字法治稳步推进的社会背景,赋予人工智能特殊物格的法律定位正当其时,这种特殊物格属性不仅应当反映在《民法典》总则编中,而且各分编乃至部门法律也应该进行规则的构建与衔接。
  第一,在《民法典》总则编中,为特殊物格预留充分的制度空间。无论是原来的《民法总则》还是《民法典》总则编对私权客体均无统一的规定,这显然不利于人工智能的法律定位与规制。当然,笔者无意构建统一的民事法律客体体系,唯想在民法视阈下明确人工智能的物格属性,如此,方可为人工智能提供规范的法治框架。诚如前文所述,人工智能不具备成为法律主体的理性意识与守法能力,也无法通过解释技术赋予其拟制人格,因此,人工智能只能在民法客体范围内寻找归宿。笔者建议,在民法客体层面无须改变现有学理对物的分类序列,而应在细节上加以补充。例如,按照人工智能的具体形态可分为有体物和无体物,前者如智能机器人,后者如自动驾驶系统等;基于公共安全视角,可将人工智能分类为流通物、限制流通物以及禁止流通物;另外,人工智能与人工智能生成物可看作原物与孳息。
  第二,在《民法典》各分编以及其他部门法中,应当完善内部规则设计与制度机制。首先,在物权领域,明确人工智能特殊物格的定位之后,法律主体对其享有的权利便可称为物权。在整个物权体系中,立法者不仅要关注形式意义上的物权规范,还要关注包含各种特殊物权制度的实质意义上的物权规范。如《中华人民共和国网络安全法》《中华人民共和国道路交通安全法》等对特殊物格的规制都需要明确与《民法典》物权编的关系并做好制度衔接。其次,在债权领域,主要涉及合同标的物及侵权责任。前者物之属性定位完全可以使之成为合同交易的标的,对合同成立、生效以及履行不会造成冲击;后者则须参考产品责任、著作权等规范适用,同时保持规则张力,以应对人工智能的持续发展。最后,在侵权责任领域,尤其应关注人工智能侵害自然人生命权、健康权、隐私权以及个人信息保护等情形。
  (二)人工智能特殊物格的微观规则设计
  前文涉及特殊物格法律框架的表述略显笼统,不足以应对复杂的司法实践。鉴于人工智能造成的纠纷多集中在人身侵权、人格权、著作权等领域,因此,法律规制的具体细节设计也应当从这几个方面展开。
  1.人工智能著作权规制构想
  《中华人民共和国著作权法》(以下简稱《著作权法》)第11条规定:在没有法律规定以及合同约定的情况下,作品的著作权归属于作者,此处的作者为自然人、法人或非法人组织。人工智能的创作物完全具备相当的创作水准与艺术价值,形式上符合作品的外在要求,但由于其不存在自主创作成分,本质上仍是人类智能的应用与延伸,因此不存在成为作者的可能。质言之,人工智能创作之内容,实质上是人机合作的成果,并没有脱离《著作权法》的人格主义基础。
  在理解上述逻辑的基础上,笔者建议可从两个方面构建规制路径。一方面,人工智能生成物的归属。人工智能本身就是作为设计者的知识产权而存在,人工智能生成的“作品”也属于衍生品,可以视作职务作品或者雇佣作品,应当为著作权法所保护,由投资者、设计者、开发者、制造者享有和行使权利。另一方面,人工智能生成物的保护。对于人工智能生成物的保护须重点考察著作权的取得方式以及保护期限。著作权的取得方式,是指著作权人通过何种方式取得著作权。目前我国采用自动取得规则,即创作完成便可自动取得,无须履行相关手续。考虑到人工智能在文学艺术创作中的广泛应用,未来将涌现海量的人工智能生成“作品”,为便于证明权益,解决纠纷,可采用登记备查的方式加以确权。对于保护期限,著作权法规定了两种保护期限计算方式:一为“有生之年+死亡后50年”,主要针对作者为自然人的情形;一为“发表后50年”,主要适用于法人、其他组织或特殊作品。前文提到,人工智能理论上不死不灭,参考自然人保护期限难以契合现有实践,因此,可以采取“发表起算主义”,一方面符合社会理性常识,另一方面可以节省公众使用成本。
  2.人工智能致害责任规制构想
  当前,人工智能已经作为消费品“飞入寻常百姓家”,同时,人工智能因设计缺陷等原因造成的人类财产、生命受损的情形也屡见不鲜,其中最为熟知的便是自动驾驶汽车引发的交通事故。全球首例自动驾驶汽车致死事件于2018年3月发生在美国亚利桑那州,这也使得其他州的上路测试计划搁浅。⑤事实上,现有交通规则往往无法认定驾驶者的过失,算法“黑箱”也会导致解密过程需要付出极大代价。基于成本-效益原则,对此类侵权问题,应当首先在产品规则体系内考察,即人工智能若因缺陷造成人类财产、生命受损时,由产品的设计者、制造者、销售者对此承担无过错责任;如果是因销售者的过失造成产品缺陷,则由销售者承担责任;如果销售者没有过错,其承担责任后,可以向制造者、设计者追偿。法理逻辑在于,自动驾驶汽车所展现出的自主性,正是前期编程对程序的开放性设计所致,而此种设计完全可被生产商控制,此为产品责任的合理基础。而且,无过错责任可以规制生产行为,倒逼生产者和设计者尽最大注意义务保证产品安全。[20]   当然,为了保障人工智能侵权责任的落实,有必要建立相应的配套机制。
  第一,健全人工智能产品授权审批及登记备案制度。通过建立严格的审批与登记备案制度,可以实现事前危机预防与事后精准追责双重目的。
  第二,建立人工智能责任技术认定机构。高度智能化、技术化以及隐蔽化人工智能无法适用原本属于自然人的鉴别思维与方式,亟待建立专业机构对人工智能的伦理价值、算法逻辑以及运行机理进行解释。
  第三,完善人工智能强制保险制度。人工智能侵权责任保险制度可以满足大部分被侵害人的基本赔偿请求,同时减少人工智能生产者的经济压力,在具体制度设计层面,保险费率、承保范围、免责条款等可依据不同的人工智能产品区别对待。
  3.人工智能侵害人格权规制构想
  人工智能对人格的侵害集中在隐私权领域。以当下某些流行的网红App(如抖音、今日头条、快手等)为例,基于信息与技术的不对称,平台利用大数据与算法偏好疯狂攫取用户个人信息,增加了信息泄露与违规使用的风险,而用户对此毫不知情或者明知道却无能为力。尽管我国《民法典》中人格权独立成编,足以显示出国家对人格保护的重视,但对于人工智能信息侵权的规范尚处于起步阶段,难以起到充分保护用户隐私的作用。因此,有必要在《民法典》人格权编、侵权责任编加以落实与补充。对此,笔者有如下建议。
  第一,强化人工智能制造者、数据控制者的责任。健全通知機制,即数据控制者应当以清晰、明显的方式通知用户;保障用户知情权,完善同意机制,对于人工智能直接或间接使用个人信息,均须得到用户同意;确立最低限度原则,数据控制者对于用户个人信息的搜集、使用、分析均应本着最低限度的原则,防止信息的滥用。
  第二,丰富用户权利。如增加个人信息的删除权(被遗忘权),用户可以向平台主张删除自身遗留的包括浏览信息、身份信息、出行信息在内的隐私信息,当然,此处删除的内容不仅包含用户所能看得见的,还应包括看不见的后台存储的一切有关数据;增加数据控制者自动化处理的解释权,该权利强调用户可以向人工智能设计者质询个人信息的处理过程,也即算法运行机理的解释;增加信息处理的拒绝权,若用户经解释发现算法规则存在信息泄露的危险,法律应当赋予个人拒绝人工智能自动化处理的权利。
  五、结语
  法学研究固然要与社会发展同步,但追逐热点的同时切记放缓脚步,甚至要驻足反思。无论人工智能在体能、智能方面如何“碾压”人类,最终仍逃脱不掉工具范畴,其必然不具备理性意识,更没有必要赋予其法律人格。人工智能的法律地位应当界定为客体范畴,无论这种客体具体内涵是笔者主张的特殊物格还是其他类型,相信这都是一条正确的道路。
  注释:
  ① 参见《国务院关于印发新一代人工智能发展规划的通知》(国发〔2017〕35号),http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm20。
  ② 参见张绍欣《从法律人类学视角论智能机器人与人类的关系》一文,载于《中国法理学会2017年年会论文集》。
  ③ 参见Gabriel Hallevy, The Criminal Liability of Artificial Intelligence Entities From Science Fiction to Legal Social Control. Akron Intellectual  Proporty Journal, 2010(4)。
  ④ 参见Hubbard F P. "Sophisticated Robots":Balancing Liability, Regulation, and Innovation(2015)。
  ⑤ 全球首例无人车致死案宣判Uber公司无刑责,参见http://news.sina.com.cn/sf/news/hqfx/2019-03-07/doc-ihsxncvh0587667.shtml。
  参考文献:
  [1] 孙占利.智能机器人法律人格问题论析[J].东方法学,2018(3):10-17.
  [2] 无人驾驶汽车历史性的一刻:美国官方机构认定谷歌自动驾驶机器人为“司机”[EB/OL].(2016-02-11)[2020-06-29].http://www.ittime.com.cn/news/news_10179.shtml.
  [3] 张建文.格里申法案的贡献与局限——俄罗斯首部机器人法草案述评[J].华东政法大学学报,2018,21(2):32-41.
  [4] 刘宪权.人工智能时代刑法中行为的内涵新解[J].中国刑事法杂志,2019(4):60-72.
  [5] 郭少飞.“电子人”法律主体论[J].东方法学,2018(3):38-49.
  [6] 袁曾.人工智能有限法律人格审视[J].东方法学,2017(5):50-57.
  [7] 皮勇.人工智能刑事法治的基本问题[J].比较法研究,2018(5):149-166.
  [8] 时方.人工智能刑事主体地位之否定[J].法律科学(西北政法大学学报),2018,36(6):67-75.
  [9] 冀洋.人工智能时代的刑事责任体系不必重构[J].比较法研究,2019(4):123-137.
  [10] 杨立新.人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任[J].求是学刊,2018,45(4):84-96.
  [11] 杨立新,朱呈义.动物法律人格之否定——兼论动物之法律“物格”[J].法学研究,2004(5):86-102.
  [12] 李琛.论人工智能的法学分析方法——以著作权为例[J].知识产权,2019(7):14-22.   [13] E·博登海默.法理学—法哲学及其方法[M].邓正来,姬敬武,译.北京:华夏出版社,1987:478.
  [14] Woodward J,Emotion versus Cognition in Moral Decision-Making: A Dubious Dichotomy[M]// Matthew Liao S. Moral Brains: The Neuroscience of Morality. Oxford: Oxford University Press,2016:87-116.
  [15] 吴汉东.人工智能时代必须关注的社会风险与四大问题[EB/OL].(2017-12-21)[2020-05-22].http://www.tisi.org/4967.
  [16] 张力,陈鹏.机器人“人格”理论批判与人工智能物的法律规制[J].学术界,2018(12):53-75.
  [17] 杨立新,王竹.论物权法规定的物权客体中统一物的概念[J].法學家,2008(5):71-77.
  [18] 杨立新.民法物格制度研究[M].北京:法律出版社,2008:38.
  [19] 梁慧星,陈华彬.物权法[M].北京:法律出版社,2007:36.
  [20] 刘洪华.人工智能法律主体资格的否定及其法律规制构想[J].北方法学,2019,13(4):56-66.
  责任编辑:曲 红、康雷闪
  The Negation of the Qualification of Legal Personality of Artificial Intelligence and Its Legal Regulation Design
  XU Yuewei
  (Legal Affairs Office, China University of Petroleum (East China), Qingdao, Shandong 266580, China)
  Abstract: The discussions on the legal personality of Artificial Intelligence(AI) should be established in the rational standard. The attempt to break through the limitations of object structure and personify artificial intelligence will confuse the difference between human autonomy and tool automation. Different from natural person or legal person, AI lacks rational consciousness in the sociological sense and does not have the ability of observance and interpretation of law. Therefore, its unwarranted and unnecessary to endow AI legal personality. However, there are huge distinctions between AI and objects in civil law. In view of its human-analogy and technicality, it should be regarded as special legal object. In the legal regulation, we should focus on principle of imputation. At the same time, we can refer to copyright and product liability in response to AI development and legal regulation.
  Key words: Artificial Intelligence; legal personality; rationalism; special legal object
其他文献
人事档案信息管理工作,对机关事业单位的各项工作有着关键影响。其详细讲述了工作人员的个人经历、工作表现、发展背景等具备历史性的信息内容。事业单位在实践工作阶段,优化人
数字化经济时代,给企业带来了新机遇和新挑战,不断创新商业模式,发展新的价值创造逻辑成为必要.本文探讨了数字经济背景下商业模式创新体系建构面临的问题,就商业模式创新体
本文以2019年世界啦啦操锦标赛集体花球项目成套动作作为研究对象,采用文献资料法、访谈法、视频分析法等研究方法深入了解集体花球在编排中的现状及表现特征,对其分类归纳进
社会经济不断发展的过程中,文化建设在社会发展中越来越重要.群文辅导可以体现文化馆的工作性质,文化馆是群文辅导工作开展的渠道,不仅构建了群文辅导工作和群众的桥梁,也推
本文通过问卷调查和访谈,探讨了大学英语专业课堂中英汉语码转换的现状。教师和学生对语码转换的总体态度;教师和学生对语码转换在新词、课文、语法、问题解决和讨论教学中的使
为了解油气资源开发过程中的生态占用情况,利用生态足迹法,结合油气资源开发特点、对环境的影响及开发区域的自然情况,增加污染账户,来分析开发区域生态承载力变化趋势;利用生态压力、万元GDP生态足迹、生态足迹多样性和发展能力等指数来评估该区域的可持续发展能力。以大庆油田为例,对1987—2017年的相关统计数据进行了测算,结果表明:近30年间大庆油田人均生态足迹明显高于人均生态承载力,生态赤字水平逐年升高,生态压力指数波动式增加,区域生态压力逐年增大,万元GDP生态足迹大幅下降后保持相对稳定,区域生态多样性与发
摘要:《左传》所述春秋时期夷夏面相,与秦汉以后相较,迥然有异。夷夏错壤杂居的地理分布,多元化的交流互动,尚未固化、单一化的夷夏判别方式,是春秋时期夷夏面相有别于后世的重要特征。以文本为主,并辅以地图、表格的方式,对夷夏面相进行多层次分析,将有助于理解这一时期的夷夏关系特质。究其面相形成原因,既承袭有殷、周以来的历史因素,亦与当时夷、夏双方均处于社会大变革与转型的阶段、可塑性较大有关。多维度审视族群
在众多的国家文化发展中,语言则在不同的文化根源下逐渐形成不同的语用习惯。与日本国家相比,我国与其文化具有较高的相似性,但本质上仍存在着差异与不同。在日语中,附和语具有重
党史教育是高校思想政治教育课的重要内容,对大学生提高的理论素养与坚定理想信念具有推动作用,对完成思政课的育人目标至关重要。但是,目前在党史内容融入高校思政课的实际过程
图书馆文化建设核心主力是馆员,图书馆员的文化素质以及其在知识上的创新情况对文化建设的质量产生直接的影响.因此图书馆遇到了前所未有及的机遇与挑战.图书馆员需要对自身