论文部分内容阅读
为了对人工智能(以下简称AI)的应用进行规范和限制,保护公民日常生活和正当权利不受侵害,欧盟委员会(以下简称欧委会)不久前提出一项针对AI的法律草案。此外,还公布了针对机器人和3D打印机的AI机器条例以及AI协调计划。
严加监管不懈怠
AI技术正在改变世界,重塑人类社会。然而随着该项技术的发展,算法黑箱、泄露人类隐私和技术滥用等一系列问题日趋严重。以算法黑箱为例,它是指由于技术本身的复杂性以及媒体机构、技术公司的排他性商业政策,算法犹如一个未知的“黑箱”,用户并不清楚算法的目标和意图,也无从获悉算法设计者、实际控制者以及机器生成内容的责任归属等信息,更谈不上对其进行评判和监督。欧委会的这项法律草案长达81页,该草案不允许使用AI系统建立社会征信体系,禁止一些对个人隐私构成“高风险”的AI应用。这意味着未来不符合准入标准的AI系统,可能无法进入欧盟。
法律草案将重塑AI公司的资产价值,欧盟投资者将根据新规制定投资决策,或以新规为基准重新审视已投项目。如果不这样做,他们的一些投资项目可能会被降低估值。与此同时,欧盟还力图创造一个有利于投资和创新的环境,以平衡新规带来的风险。若有商家不遵守规定,首先会受到警告,然后产品可能被下架,如屡犯不改则可罚没其年收入的6%。这意味着欧盟将对AI领域的惩罚力度提升至竞争(反垄断)领域的维度,后者是欧盟境内执法力度最大的领域。
欧委会按照风险高低,将AI应用场景分为“最低、有限、高、不可接受”四个风险等级,其中等级越高的应用场景受到的限制越严格。风险等级最低的应用场景包括基于AI的电子游戏和垃圾邮件识别软件等,目前欧盟绝大部分AI系统都属于该类别,欧委会提出的法律草案对此不做约束。高风险的应用场景指可能对人们生命和生活造成严重影响的场景,涉及交通设备、教育培训、医疗辅助、入职就业和信用评级等公共服务,以及贷款和边境管制等公民权利的应用。如果AI应用使公民的生命与安全处于危险之中、剥夺公民获得教育和职业课程的机会、影响旅行证件的真实性,这些应用将被判定为高风险。人脸识别所基于的所有远距离生物识别系统都被认定为具有高风险,禁止执法部门在公共场合使用这一技术。只有少数情况例外,如寻找失踪儿童或防止个别恐怖袭击、甄别犯罪分子和可疑人员等,这类应用需得到司法部门或独立机构授权。不可接受风险的场景包括某些明显威胁民众安全和生活以及侵犯民众权利的系统,利用人类行为来误导用户、违反其自由意志的应用,如使用语音助手诱导未成年人做出危险行为的玩具等,这类应用必须禁止。
积极酝酿立法程序
近年来,欧委会在支持创新的同时,确保AI技术不侵犯欧盟超過5亿人口的隐私,试图在两者之间寻求适当的平衡。在此次发布法律草案之前,欧盟对AI监管的计划已经酝酿了几年的时间。
2018年4月25日,欧委会发布了一份题为《欧盟人工智能》的政策文件,描述了欧盟在AI竞争中的地位,并制定了欧盟AI行动计划。政策文件提出三大目标:一是增强欧盟的技术与产业能力,推进AI应用。要增进投资,以加强基础研究,实现科学突破,升级AI科研基础设施,开发针对医疗和交通等关键部门的AI应用,促进AI的应用及数据的获取。同时通过公私合作增加AI研发投资,到2020年整个欧盟的投资至少应达到200亿欧元,并在接下来10年里每年争取投资超过200亿欧元。二是做好迎接社会经济变革的准备。为支持成员国的劳动力与教育政策,欧委会制定专门的(再)培训计划,涵盖企业、工会、高等教育机构和公共机构,以应对可能被自动化取代的职业。欧洲社会基金将为此提供支持。三是确立合适的伦理和法律框架。与欧洲科学和新技术伦理小组合作,设立一个面向利益相关方的欧洲AI联盟的框架,开发AI伦理指南草案,并充分考虑基本权利。
2019年4月8日,欧委会公布AI道德准则,这是在2018年12月公布的AI道德准则草案的基础上演变而来的。这份准则提出了实现可信赖AI的7个要素:1.人的能动性和监督。AI系统应通过支持人的能动性和基本权利以实现公平,而不是减少、限制或错误地指导人类自治。2.稳健性和安全性。值得信赖的AI要求算法足够安全、可靠和稳健,以处理AI系统所有生命周期阶段的错误或不一致。3.隐私和数据管理。公民应该完全控制自己的数据,同时与之相关的数据不会被用来伤害或歧视他们。4.透明度。应确保AI系统的可追溯性。5.多样性、非歧视性和公平性。AI系统应考虑人类能力、技能和要求的总体范围,并确保可接近性。6.社会和环境福祉。应采用AI系统来促进积极的社会变革,增强可持续性和生态责任。7.问责。应建立机制,确保对AI系统及其成果负责。
白皮书提出一系列AI研发和监管的政策措施,并提出建立“可信赖的AI框架”,以确保AI仍然值得信赖,并尊重欧盟的价值观和原则。
2020年2月19日,欧委会在布鲁塞尔发布《人工智能白皮书》(以下简称白皮书),以促进欧洲在AI领域的创新能力,推动道德和可信赖技术在欧洲经济领域的发展和应用。根据白皮书,在接下来的5年中,欧委会将专注于数字化的三个关键目标:为人民服务的技术、公平竞争的经济和开放、民主与可持续的社会。
2020年10月20日,欧洲议会通过了有关欧盟如何更好地监管AI的三份立法倡议报告,期望推动AI的立法进程,以促进创新、道德标准和技术信任。本次立法倡议报告主要包括三大部分:一,AI伦理框架。该立法倡议为AI、机器人以及相关技术(包括利用人工智能生成的软件、算法和数据)确立了一系列伦理原则。该立法建议的核心在于识别“高风险”(含有歧视,或有违隐私保护)的AI技术,并采用严格的伦理规范标准加以限制。二,AI民事责任。该立法试图构建一个民事框架,专门针对AI对自然人(包括法人)生命安全、精神健康以及物质财产造成的损害,对运营者进行追责。该建议同样区分AI是否为高风险,并对高风险AI实施更为严格的责任原则。三,知识产权。倡议报告分别列出了一些知识产权的关键原则,比如需要区分AI辅助的人类作品与AI自生成的作品等,倡议明确AI不应具有法律人格,与AI有关的一切知识产权的所有权都应归属于人类。
意义深远影响大
据欧盟白皮书和《欧洲创新记分牌》等文件所提供的数据,欧盟对AI行业的监管走在世界前列。在市场份额方面,欧盟成员国呈现整体强、个体弱的特点。如果以整体计算,欧盟所占全球市场份额为22%,位列全球第二。如果以个体成员国计算,欧盟所有成员国均落后于美国、中国、以色列。在投资方面,近5年来,欧盟在该领域的投资金额仅为美国的30%左右。在创新能力方面,欧盟的平均创新水平领先于美国,但落后于加拿大、韩国、澳大利亚和日本。
欧委会称,上述法律草案首先规范了AI行业和高风险AI企业在产品上市前将承担的相应义务,其次解决了AI应用所带来的社会风险问题,引起了全球各国的关注。可以预料,它将像2018年5月25日正式全面施行的《欧盟通用数据保护条例》(GDPR)一样,对其他国家产生重大的影响。GDPR是近30年来欧委会数据保护立法的最大变动,旨在加强对欧盟境内居民的个人数据和隐私保护,同时通过统一数据和隐私条例来简化对跨国企业的监管框架。该保护条例取代了1995年颁布的《数据保护指令》,它通过监管机构和法院执行,加大了行政处罚的力度,根据案情情况最高可罚款2000万欧元,或公司年营业额的4%。
有美国媒体援引分析观点认为,上述法律草案内容过于模糊,存在太多漏洞。欧委会解释说,对AI企业罚款仅仅是监管的一方面。从另一方面来看,还需关注供应商如何投入金钱和人力成本以实现合规。草案迫使AI企业重新思考应该如何设计和应用AI技术。至于法律框架将给欧盟以外的AI企业带来优势的说法,欧盟數据创新中心政策分析师穆勒指出:“虽然法律草案将提高欧洲AI企业的成本,也会拖累研发速度,为美国和亚洲企业带来机遇,但是如果这些企业想在欧洲开展业务,或成为一些产品的供应商,将面对相应的监管规则。”
上述立法草案在成为法律之前还有很长的路要走,此类法律在欧盟必须得到代表欧盟27国政府的欧洲理事会和直接选举产生的欧洲议会的批准,整个过程可能需要数年时间。未来几个月欧委会将就如何实际遵守这些规则和如何真正构建对高风险AI应用的监管等问题,广泛听取AI企业和用户的意见。如果该项立法草案获得通过,那么欧洲将成为世界上首个以法律形式规范AI数据采集使用的地区,将会对其他国家和地区AI监管法规的出台起到示范作用。
编辑:夏春晖 386753207@qq.com