论文部分内容阅读
2018年11月24日,全国人大常委会委员长会议组成人员进行专题学习,围绕人大立法监督工作保障和规范人工智能发展进行学习讨论,认为全国人大相关专门委员会、工作机构和有关方面要及早动手,尽快行动,对人工智能涉及的法律问题进行深入调查研究,为相关立法工作打好基础、做好准备。
美国、欧盟、英国、德国自2016年开始就积极推动人工智能责任立法、人工智能伦理准则以及自动驾驶、医疗机器人等领域的细分立法。从《“互联网 ”人工智能三年行动实施方案》到人工智能被写入2017年政府工作报告,从《新一代人工智能发展规划》到十九大报告的“推动互联网、大数据、人工智能和实体经济深度融合”,中国对人工智能的重视正在不断提高。
当下,人工智能作为解决金融、交通、城市建设、医疗等一系列迫切的社会问题的手段,也对立法和公共政策的制定提出了更高的要求。在人工智能兴起的背景下,中国的司法改革也正在面临更严峻的知识挑战,这种挑战短期内来自现代化治理的方法论,而长远来看关系到的是人类对自身的“认识论”。
理财机器人出问题,损失算谁的?
吴颖打开手机,同时开启了四五个银行APP。她使用理财机器人才两个月,很多概念并没有搞清,但她唯一清楚的是,这些署名“AI”的人工智能投资顾问,会为她提供或稳健、或均衡、或成长、或积极的投资组合。她将手机推到《南风窗》记者面前,“人工智能的好处我觉得就是直接,而且效率特别高。”她总觉得理财顾问都是“忽悠”居多,对“高科技”有一种下意识的信任。
理财机器人并不是一个“实体”机器人,面对面帮助客户理财,而是透过线上调查问卷,或者是APP上客户的资产和消费数据,来了解投资者的背景资料、风险偏好和投资习惯,再经由算法“量身打造”一套投资组合。
举例来说,理财机器人在做完投资习惯和风险调查后,会为愿意承受高风险、进而享受高回报的投资者推荐全球股市比重占70%、美债比重占30%的投资组合;而为正在准备退休的保守型投资者,推荐股票型占40%、债券型占60%的投资组合。
理财的真正含义,是资产配置。先决定好投资工具,比如股票、债券、现金等,再按照个人的风险和回报偏好来配置比例。不过,在市场波动下,持有的投资组合会因为价格涨跌,净值比例偏离原来的设定比例。而理财机器人的重要特点,就是自动地进行资产配置再平衡。它以月度、季度、年度的方式检视资产绩效,定期调整。像吴颖这种常年“996”的忙碌职场人士,再也不用茶饭不思地“盯盘”。
理财机器人也叫智能投资顾问(Robo-Advisor),是近年风靡华尔街的创新性金融科技产品。美国金融数据分析服务提供商Kensho,它的软件可以在2分钟内做出反应:当三级飓风袭击佛罗里达时,哪只水泥股的涨幅最大?苹果发布新款iPhone,哪家供应商股价上涨更快?
2016年,以招商银行、广发证券为代表的中国银行和券商等金融机构,也开始入局。2017年,中国各大银行、证券公司和保险公司均推出了相关产品。吴颖去年就听同事们谈及,一贯“保守”的她今年也加入了进来。
中国的理财机器人和国外的最大区别是,前者不能进行“代客资金交易”,说白了,就是不能“自行付钱”。“我也挺犹豫的,”吴颖说,“虽然买不买单,决定权还是在我手上,但万一这个机器人出问题了,或者被黑客攻击了,我的损失算谁的责任?是那个写代码的,还是黑客,还是整个银行?”
虽然人工智能远远达不到人类的认知水平,但是作为工具的使用,已经出现了很多急需明确的权责问题。
同样的问题也发生在医疗机器人领域。目前中国的医疗机器人应用尚未普及,但小范围的应用也是事关“生死”。据了解,中国有三十几家医疗机器人企业。北京积水潭医院、301 医院、河北医科大学第三医院等几家医疗机构,已经开始临床应用骨科机器人。深圳某企业的手术机器人,可以帮助医生,通过使用电脑和软件来控制和移动手术仪器,进入病人身体上的微小切口,来完成不同的手术步骤。
如果医疗机器人出现故障,发生医疗事故,权利和责任又该如何明确?会不会进一步激化中国业已严峻的医患关系?
赋予人工智能虚拟人格?
人工智能是一种为社会带来全方位变革的通用技术,可以应用到从农业、制造业再到法律、医疗、金融服务业等各种各样的生活场景之中。而且,机器学习(特别是无监督学习)技术,会带来结果的不可控性。就像微软的聊天机器人,上线没几天,跟网友学会了不少粗话,甚至还学会了种族歧视。
因此,法律如何规制人工智能,在鼓励创新的同时,保护人类社会的基本价值,将风险控制在可控范围内,是一个急需讨论和立法回应的问题。
但中国社会科学院知识产权中心教授杨延超告诉《南风窗》记者,鉴于目前人工智能的发展水平,制定一部总括性的“人工智能法”,时机还不成熟。
最接近一般性人工智能法的立法尝试,是2016年欧洲议会向欧盟委员会提出的“机器人法”立法建议报告。这份报告的立法,只针对有形的“智能机器”,包括机器人、智能家电和自动驾驶汽车等。但是,对于人工智能的核心—算法,并没有相关的规制。也就是说,其思路和规制食品安全、產品责任的思路基本上一样。
那么为什么还要紧锣密鼓地讨论人工智能的立法?杨延超认为,虽然人工智能远远达不到人类的认知水平,但是作为工具的使用,已经出现了很多急需明确的权责问题。“这时候,我们就需要赋予人工智能一个虚拟人格,来解决利益的第一层分配问题。”
他举了一个例子,“就像法人,法人也不是自然人,但是我们能够赋予公司一个虚拟的人格来明确它的地位。”对于人工智能来说,“虚拟人格就是法律人格。从消极的方面说,就是判断谁来承担责任;从积极的方面说,就是行为的效力怎么认定。” 自动驾驶是理解人工智能立法难题的一个典型案例。目前,自动驾驶车辆是在一个“无法可依”的情况下“高调”上路的。2017年12月2日,四辆装备着华为开发的“阿尔法巴-智能驾驶公交系统”的自动驾驶公交车在深圳福田保税区上路,这是世界首例在开放道路上行驶的自动驾驶公交车。
自动驾驶首先面临着“法律人格”地位下区分其民事行为能力和责任能力的问题。“过错”是现代交通法构建的基石,酒驾、疏忽大意、无证驾驶都是“过错”。然而,在无人驾驶的时代,“过错”就要进行重新划分。根据2017年5月德国联邦议会批准的《德国道路交通法》修正案,如果自动驾驶模式正在运行过程中发生了事故,责任在汽车制造商;如果自动驾驶系统发出了请求人工控制的信号,责任才会转移到汽车的驾驶人员身上。
杨延超说,这实际上是产品质量责任,也就是严格责任,它不关心“过错”,而是关心汽车是谁生产的。在无人驾驶时代,交通事故的责任主体将由个人转为汽车的生产企业。这对原有的交通法律,是颠覆性的。而且,人工智能技术的应用可谓“牵一发而动全身”,交通事故责任分配中的保险制度,也将出现彻底的转变。
一直以来,保险制度在交通事故责任有着两方面的作用。一方面它让受害者救济变得更加及时—受害者可从保险费用中先行获得救济;另一方面,它也分散了责任承担,将一人责任分解成社会分担。然而,随着无人驾驶时代的到来,保险费用的交纳或许将由车辆购买者变为汽车厂商。
“霍布斯时刻”的到来?
中国的司法改革,很大程度上是一种知识的改革。这绝不是说,法律人只要死读书本就能解决法律问题,而是说,从司法决策的角度去看,它首先就是知识运用的过程;从程序立法的方面去看,它同样需要知识立场和知识内涵。人工智能的出现,以及其可预期的发展前景,为司法改革提出了更新的情况、更新的知识,如果不能理解这种知识,司法改革也将更加难以推进。
在当下“弱人工智能”的状态下,人们需要解决的往往是“知识产权”问题。这个问题的表层是,立法者需要给予人工智能更多的权利。像撰稿机器人、作曲机器人、法律咨询机器人,应该享有相应的创作者权利。更深一步去看,这些机器人背后创造其算法的人,也相应享有创作者的权利,包括著作权、专利权等。
在中美贸易摩擦中,知识产权也成为争端的关键。据悉,中国最高人民法院也将赋予知识产权庭更大的权力,来强化知识产权的重要性,统一知识产权案件的审判标准。
当人工智能远远超出人类的想象之后,法律又该如何规范两个物种的生活?如何创造一个稳定的预期?还是说,人类将再次面对那个“一切人对一切人”的“霍布斯时刻”?
知识产权的应用范围,需要不断地“扩大”。但是,诸如“密码朋克”“自由软件运动”等群体的崛起或运动的爆发,也提供了另外一种可能。越来越严格的知识产权保护,也许极大地阻碍了知识、技术、想法的快速高效流通,从而极大地阻碍了人类的创新活动和发明活动。
这就意味着,“弱人工智能”时代的立法或规制,特别需要注意自身的尺度和边界。它既要给文化传播、发明创造留下足够的空间,也要保护创作者的“私人财产”—以利于长期的、持续的、有回报的知识生产。它不仅要鼓励和保护人工智能的独立“发挥”,也要前瞻性地避免人工智能带来的破坏和损害。
然而,等人们跨越“奇点”,或者进入“强人工智能”时代,立法者面临的就不仅仅是知识产权的问题,或者说罗马法里的“缴出赔偿”原则—机器人的“主人”最终承担責任;而是电子人格是否与人类人格真正等同的问题,换句话说,就是强人工智能算不算一个“人”。
虽然沙特阿拉伯在2017年授予机器人索菲亚以公民身份,还向她发放了护照,但炒作的色彩大于实际意义,索菲亚远没有具备“思考”的能力。杨延超提到了科幻作家阿西莫夫的“机器人三定律”,他认为这一文学设定的意义是重大的,强人工智能具备人类的诸多能力之后,人类的安全问题应该被首先纳入考量。
对于法律人而言,技术的更迭,时代的更替,都是一种大的背景,而司法改革并不以变化为目的,归根结底,它以公平和正义为目的。
如今的人工智能在司法领域的应用,特别是在取证方面,极大地提高了效率。对人工智能知识的掌握和理解,也意味着对正义的理解的进一步加深。迟来的正义虽然好过没有来的正义,但依然比不上“及时”的正义。
而面对未来将与人类平等的强人工智能,人们对“主奴关系”“公平”“正义”的看法,又将与今日截然不同。人类从来没有赋予过任何一个物种与人类相等的权利,正是因为其他物种无法与人类抗衡。当人工智能远远超出人类的想象之后,法律又该如何规范两个物种的生活?如何创造一个稳定的预期?还是说,人类将再次面对那个“一切人对一切人”的“霍布斯时刻”?