论文部分内容阅读
2018 年 12 月,欧盟委员会公布了《可信赖的人工智能道德准则草案》。草案阐述了人工智能应遵循的道德目标,包括基本权利、原则与价值观;分析了实现可信赖的人工智能的要求;并制定了具体的评估标准。草案为开发、部署和使用人工智能的政府、社会组织、研究机构、企业和个人提供了一个人工智能道德准则框架,以便实现“以人为本”和可信赖的人工智能技术,并创造一种“可信赖的人工智能源自欧洲”的文化,使欧洲成为引领全球人工智能的创新者。
人工智能(AI)是当代最强大的变革力量之一,势必会改变人们的社会结构。人工智能将带来繁荣发展的巨大机遇,欧洲绝不能等闲视之。得益于可用数据的海量骤增、更强大的计算结构以及机器学习等人工智能技术的突飞猛进,人工智能在过去 10年里取得重大进步。在人工智能的推动下,自动驾驶汽车、医疗、家用/服务型机器人、教育、网络安全等领域实现重大发展,人类生活水平也随之不断提高。此外,人工智能还是解决全球重大挑战的关键手段,如全球健康与福利、气候变化、可靠的法律与民主系统以及载入《联合国可持续发展目标》的其他挑战。
人工智能拥有造福人类与社会的卓越能力,同时也会带来风险,必须妥善管理。为确保人工智能的发展不偏离轨道,就需要坚持以人为本,必须始终牢记人工智能的发展与应用本身并不是目的,其目的是造福人类。实现可信赖的人工智能是本准则的根本宗旨,因为对于人工智能来说,人类只有信其所能,才能用其所及。
欧盟实现人工智能 道德的权利型策略
以《欧盟条约》和《基本权利宪章》中规定的基本权利为基石,找出抽象道德原则,确定如何在人工智能的语境中落实道德价值,这才是落实人工智能道德的正道。欧盟的基本义务,就是通过宪政保护不可分割的基本人权,确保尊重法律规则,推动民主自由,促进共同发展。基本权利不仅能够催生新的法律与监管规则,也是指导人工智能系统开发、使用与实施的依据。
欧盟条约和宪章规定了落实欧盟法律时所适用的权利,即:尊严、自由、平等、团结、公民权利与正义。这些权利在宪章的后续章节中进行了阐述,而贯穿其始终的主线,就是欧盟坚持以人为本的精神,即公民在政治、经济与社会工作中始终占据特殊的首要位置。
道德领域也是为了保护个体权利和自由,同时造福社会与公益。道德视角能够帮助人们理解技术如何在人工智能的开发与应用中将基本权利纳入考虑因素,以及如何更好地指导人们利用技术造福公益,而不是(现在)只关注技术能够做什么。在人工智能领域坚持基本权利,重视需要遵循的道德原则。
从基本权利到原则和价值观
要举例说明基本权利、原则与价值观的关系,就让人们来思考一下“尊重人类尊严”的基本权利概念。这种权利涉及对人类固有价值的认识,如此又可引出自治的道德原则,即人人都有自由选择身体、情感或精神等方面生活方式的权利。继而,知情同意就是自治原则在实践中的具体操作。知情同意要求个体在决定是否开发、使用或投资实验或商用人工智能系统时,要为其提供充分的信息。
简而言之,基本权利是形成道德准则的基石。这些原则是高级的抽象标准,开发者、部署者、使用者和监管者要奉行以人为本和可信赖的人工智能的目標,就必须遵守。而价值观是奉行道德原则的具体指导,同时也为基本权利提供支撑。
运用基本权利推导出道德原则和价值观的做法,并非人工智能高级专家组的首创。早在 1997 年,欧洲理事会就出台了名为《在生物学和医学应用领域保护人权和人类尊严的公约》(简称奥维耶多公约)。奥约耶多公约明确规定,基本权利是在技术变革中确保“以人为本”的根本所在。
尊重并确保人工智能系统遵守基本权利、原则与价值观,就是本文中所述的确保“道德目标”,这是实现可信赖的人工智能的关键因素。
人工智能领域的道德原则及相关价值观
许多公共、私人与民间组织已经在运用基本权利来构建人工智能的道德框架。在欧盟,欧洲科学与新技术伦理工作组(EGE)以欧盟条约和欧盟基本权利宪章中规定的基本价值观为基础,提出了九大基本原则。近期,AI4People研究项目对欧洲科学与新技术伦理工作组提出的九大原则以及迄今为止提出的其他三十六个原则进行了评估,并将其归纳为四大总体原则,包括:善行、无伤害、个体自主和公正平等。为适应人工智能的发展,专家组还对上述四大原则进行了修正,增加了第五项原则,即:可解读原则。人工智能高级专家组相信会聚的好处,这样能够找出迄今为止各种机构提出的大部分原则,同时澄清这些原则所针对的目的。最重要的,这些总体原则能够为核心价值观提供具有可操作性的指导原则。
同时还应当注意,在特殊情况下,个体与社会对这些原则的态度可能会出现冲突。这种情况并没有特定的解决途径。在上述情况下,参照欧盟条约和宪章所保护的原则与总体价值观和权利不无裨益。鉴于人工智能的未知潜力与意外后果,本文建议要有内部与外部(道德)专家参与人工智能的设计、开发与应用。这些专家有助于人们进一步关注未来几年里可能出现的特别道德问题。
善行原则。人工智能系统的设计与开发应当有益于个体与集体。人工智能可促进繁荣、创造价值、增加财富、促进可持续发展。同时,致力于善行的人工智能系统有利于创造公平、包容与和平的社会,有助于维护公民的精神自治,促进经济、社会与政治机会的平等分配,从而造福全民。人工智能系统如果用于保护民主进程与法治,保障低成本与高质量的公益与服务,加强数据素养与代表性,为使用者减轻伤害及加强信任,从经济发展、社会公平与环境保护这三个方面实现联合国可持续发展目标或更广泛的可持续发展。换言之,人工智能是促进全球公益和/或应对全球挑战的有效工具。
无伤害原则。人工智能系统不得伤害人类。人工智能系统的设计应确保在社会上和工作中保护人类的尊严、诚信、自由、隐私和安全。人工智能系统不得威胁民主进程、表达自由、身份自由以及拒绝人工智能服务的权利。人工智能系统至少在设计上不能加剧已经存在的伤害,也不能导致新的伤害,包括身体、心理、财务或社会等方面的伤害。人工智能领域的伤害可能来自于对个人数据的处理(包括数据的采集、存储、使用方式等)。为避免伤害,为用于培训人工智能算法而采集和使用的数据必须要避免歧视、操纵或负面判断。同时,人工智能系统的开发与实施还必须保护社会避免意识形态的两极分化和算法决定论。 避免伤害,也包括对环境和动物的伤害。因此,避免伤害的原则应当包括开发环保型的人工智能。地球资源有其本身的价值,也有着供人类消费的价值。无论是哪一种,人工智能的研究、开发和使用有必要坚持环保意识。
自主原则:“保留人类的能动性”。人工智能开发所涉及的人类自主性,意味着人类自由不从属于人工智能,也不受其胁迫。在与人工智能系统的交互中,人类必须保持完整有效的自决权。这就要求人工智能的消费者或使用者有权决定是否遵守人工智能的直接或间接决策,有权知晓与人工智能系统进行直接或间接互动的知识,并有权选择拒绝或退出。
公正原则。本准则所提及的公正原则要求人工智能系统的开发、使用与监管必须公平。开发者和实施者需要确保个体与少数群体享有不遭受偏见、侮辱和歧视的自由。此外,人工智能的开发应当平衡利弊,避免加剧弱势群体的遭遇,努力为其争取在教育、商品、服务和技术上不受歧视的公平机会。公正还意味着人工智能系统必须要提供有效的救济措施,以防范意外伤害或者数据偏离人类个体或集体偏好。最后,公正原则还要求人工智能的开发者或实施者必须拥有高标准的问责机制。为人工智能的性能制定(道德)标准,将有益于造福人类。
可解读原则:“透明操作”。透明度是人工智能系统及其开发者赢得并维持信任的关键。从道德立场上来看,技术和商业模式的透明度都十分重要。技术上的透明度,是指人工智能系统要能够被理解能力和专业水平各不相同的人士所审查和理解。商业模式上的透明度,是指人工智能系统开发者与技术实施者要明确告知其意图。
可解读是个体在与人工智能交互时实现知情同意的前提,而为确保实现可解读与无伤害原则,就应当保障知情同意的要求。可解读还要求必须采取追责措施。个体与机构可要求人工智能系统的组织者与开发者、技术实施者或供应链上的第三方基本参数与说明的证据(人工智能系统的发现或预测,或者发现和预测所涉及的因素),以此为依据来分析人工智能的决策。
人工智能引发的重大关注
人工智能的具体用途或应用以及领域或语境可能会违背上述的权利和原则,从而引发重大关注。与其他强大的技术一样,人工智能虽然有助于实现欧盟价值观,但其两面性本质意味着人工智能也可能会侵犯这些价值观。下面列出了部分重大关注,在未来可能会有所缩减或变动。
未经同意的身份识别。公共或私营机构都可以运用人工智能来更加高效的识别个体身份。人工智能领域的控制技术必须合情合理,才能保障欧洲民众的自主权。在个体身份识别与个体跟踪之间,以及针对监控与大众监控之间进行区分,是实现可信赖的人工智能的关键。
目前互联网上也有知情同意的机制,但消费者往往不假思索就点击同意。这就要求监管者必须根据实际情况构建全新机制,让公民能够给出可验证的同意,让人工智能或同等技术能够自动识别验证。面部识别或其他使用生物计量数据的非自愿身份识别手段都属于可扩展人工智能身份识别技术(如谎言测试、通过微表情进行性格评估、自动语音识别等)。个体身份识别有时也符合道德原则(如发现欺诈、洗钱或资助恐怖分子等行为)。在现有法律或者对核心价值观的保护没有明确规定可以采用此类技术的地方,自动身份识别会引发重大的法律与道德关注,其默认条件是用户并没有给出同意身份验证的意思表示。这同时也适用于使用能够进行逆向身份验证的“匿名”个人数据。
隐秘的人工智能系统。人工智能的开发者和部署者有責任让用户知道交互对象是人类还是机器,这一点必须可靠实现。此外,掌握人工智能的控制权,操纵人类的能力就可能达到前所未有的规模。因此,人工智能开发者和部署者应当确保人类了解交互对象是人工智能的这一事实,或者能够要求并验证这个事实。值得注意的是,存在可能让事态更加复杂的边缘情况,比如用人工智能过滤人类语音。机器人就可视为是一种隐秘的人工智能系统,因为机器人在尽量模仿人类行为。机器人进入到人类社会有可能改变人们对人类及人性的认知。人们必须牢记,人类与机器的混合将导致多重后果,包括归属感、影响力,或者降低人类的价值。因此,类人与人形机器人的开发必须要进行谨慎的道德评估。
所有公民的自由与自主都应得到尊重。政府机构在各方面进行大规模标准化公民评分(如“道德人格”或者“道德诚实”方面的总体评估)将危及这些价值观,特别是在不符合基本权利或者规模失调且没有明确合法目标的情况下。当今世界,大小规模的公民评分常为具体领域的单纯说明性评分(如学校系统、电子学习或驾照)。但是,公民评分如果要应用于有限的社会领域,就必须要为公民提供透明流程,并提供评分过程、目的和方法方面的信息,在理想情况下还要向公民提供退出评分机制的选择权。在双方权利不对称的情况下,这一点尤为重要。因此,开发者和部署者都应当在技术设计中保障这种选择权,并提供必要的资源予以实现。
致命自动化武器系统(LAWS)。致命自动化武器系统可以在没有人类控制的情况下自动执行选择与攻击个体目标的关键功能。而最终,所有伤亡还是必须要由人类负责。目前,不明数量的企业和国家正在研究和开发致命自动化武器系统。这种情况会引发基本的道德关注,比如会导致前所未有的军备竞赛失控,会导致人类完全放弃控制、故障风险完全无解的军事环境。不过还有另一方面需要注意,那就是致命自动化武器系统能够在武装冲突中减少附带伤害,比如有选择的解救儿童。欧洲议会呼吁紧急制定共同遵守的法律,解决人类控制、监督的道德与法律问题,落实国际人权法律、国际人道主义法律和军事战略的问责与落实机制。
远期关注。当前所有的人工智能仍然仅涉及具体领域,需要训练有素的人类科学家和工程师为其指定准确目标。但是,长远的未来仍然存在一些重大关注,虽然这些仅仅是猜测。尽管以现在的眼光看来,出现这些情况的可能性并不大,但其潜在危害却可能十分巨大(比如拥有主观经验的人工意识、人工道德实体或者无监督递归自我改进型人工智能(AGI)等,这些技术在今天看来尚遥遥无期)。因此,人们需要采取风险评估策略,始终关注这些领域的发展,并投入资源减少远期风险。
人工智能道德准则草案结论
人工智能已给全球商业和社会带来巨大的积极影响。人工智能是一种变革与颠覆性技术。过去几年,得益于海量数字化数据、计算能力与存储能力的重大进步以及人工智能方法与工具的重大科研创新,人工智能实现了跨越式发展。
人工智能将继续给社会和民众带来难以预料的影响。这种前景令人振奋,但人们也必须保持警惕,应正确认识可信赖的人工智能,并努力加以践行,只有赢得人类的信任,技术才能发挥造福人类的巨大作用。因此,实现可信赖的人工智能是本文件的根本宗旨。
可信赖的人工智能包含两个方面:第一,应尊重基本权利、相关规则和核心原则,确保“道德目标”的实现;第二,技术上必须稳健可靠。
人工智能(AI)是当代最强大的变革力量之一,势必会改变人们的社会结构。人工智能将带来繁荣发展的巨大机遇,欧洲绝不能等闲视之。得益于可用数据的海量骤增、更强大的计算结构以及机器学习等人工智能技术的突飞猛进,人工智能在过去 10年里取得重大进步。在人工智能的推动下,自动驾驶汽车、医疗、家用/服务型机器人、教育、网络安全等领域实现重大发展,人类生活水平也随之不断提高。此外,人工智能还是解决全球重大挑战的关键手段,如全球健康与福利、气候变化、可靠的法律与民主系统以及载入《联合国可持续发展目标》的其他挑战。
人工智能拥有造福人类与社会的卓越能力,同时也会带来风险,必须妥善管理。为确保人工智能的发展不偏离轨道,就需要坚持以人为本,必须始终牢记人工智能的发展与应用本身并不是目的,其目的是造福人类。实现可信赖的人工智能是本准则的根本宗旨,因为对于人工智能来说,人类只有信其所能,才能用其所及。
欧盟实现人工智能 道德的权利型策略
以《欧盟条约》和《基本权利宪章》中规定的基本权利为基石,找出抽象道德原则,确定如何在人工智能的语境中落实道德价值,这才是落实人工智能道德的正道。欧盟的基本义务,就是通过宪政保护不可分割的基本人权,确保尊重法律规则,推动民主自由,促进共同发展。基本权利不仅能够催生新的法律与监管规则,也是指导人工智能系统开发、使用与实施的依据。
欧盟条约和宪章规定了落实欧盟法律时所适用的权利,即:尊严、自由、平等、团结、公民权利与正义。这些权利在宪章的后续章节中进行了阐述,而贯穿其始终的主线,就是欧盟坚持以人为本的精神,即公民在政治、经济与社会工作中始终占据特殊的首要位置。
道德领域也是为了保护个体权利和自由,同时造福社会与公益。道德视角能够帮助人们理解技术如何在人工智能的开发与应用中将基本权利纳入考虑因素,以及如何更好地指导人们利用技术造福公益,而不是(现在)只关注技术能够做什么。在人工智能领域坚持基本权利,重视需要遵循的道德原则。
从基本权利到原则和价值观
要举例说明基本权利、原则与价值观的关系,就让人们来思考一下“尊重人类尊严”的基本权利概念。这种权利涉及对人类固有价值的认识,如此又可引出自治的道德原则,即人人都有自由选择身体、情感或精神等方面生活方式的权利。继而,知情同意就是自治原则在实践中的具体操作。知情同意要求个体在决定是否开发、使用或投资实验或商用人工智能系统时,要为其提供充分的信息。
简而言之,基本权利是形成道德准则的基石。这些原则是高级的抽象标准,开发者、部署者、使用者和监管者要奉行以人为本和可信赖的人工智能的目標,就必须遵守。而价值观是奉行道德原则的具体指导,同时也为基本权利提供支撑。
运用基本权利推导出道德原则和价值观的做法,并非人工智能高级专家组的首创。早在 1997 年,欧洲理事会就出台了名为《在生物学和医学应用领域保护人权和人类尊严的公约》(简称奥维耶多公约)。奥约耶多公约明确规定,基本权利是在技术变革中确保“以人为本”的根本所在。
尊重并确保人工智能系统遵守基本权利、原则与价值观,就是本文中所述的确保“道德目标”,这是实现可信赖的人工智能的关键因素。
人工智能领域的道德原则及相关价值观
许多公共、私人与民间组织已经在运用基本权利来构建人工智能的道德框架。在欧盟,欧洲科学与新技术伦理工作组(EGE)以欧盟条约和欧盟基本权利宪章中规定的基本价值观为基础,提出了九大基本原则。近期,AI4People研究项目对欧洲科学与新技术伦理工作组提出的九大原则以及迄今为止提出的其他三十六个原则进行了评估,并将其归纳为四大总体原则,包括:善行、无伤害、个体自主和公正平等。为适应人工智能的发展,专家组还对上述四大原则进行了修正,增加了第五项原则,即:可解读原则。人工智能高级专家组相信会聚的好处,这样能够找出迄今为止各种机构提出的大部分原则,同时澄清这些原则所针对的目的。最重要的,这些总体原则能够为核心价值观提供具有可操作性的指导原则。
同时还应当注意,在特殊情况下,个体与社会对这些原则的态度可能会出现冲突。这种情况并没有特定的解决途径。在上述情况下,参照欧盟条约和宪章所保护的原则与总体价值观和权利不无裨益。鉴于人工智能的未知潜力与意外后果,本文建议要有内部与外部(道德)专家参与人工智能的设计、开发与应用。这些专家有助于人们进一步关注未来几年里可能出现的特别道德问题。
善行原则。人工智能系统的设计与开发应当有益于个体与集体。人工智能可促进繁荣、创造价值、增加财富、促进可持续发展。同时,致力于善行的人工智能系统有利于创造公平、包容与和平的社会,有助于维护公民的精神自治,促进经济、社会与政治机会的平等分配,从而造福全民。人工智能系统如果用于保护民主进程与法治,保障低成本与高质量的公益与服务,加强数据素养与代表性,为使用者减轻伤害及加强信任,从经济发展、社会公平与环境保护这三个方面实现联合国可持续发展目标或更广泛的可持续发展。换言之,人工智能是促进全球公益和/或应对全球挑战的有效工具。
无伤害原则。人工智能系统不得伤害人类。人工智能系统的设计应确保在社会上和工作中保护人类的尊严、诚信、自由、隐私和安全。人工智能系统不得威胁民主进程、表达自由、身份自由以及拒绝人工智能服务的权利。人工智能系统至少在设计上不能加剧已经存在的伤害,也不能导致新的伤害,包括身体、心理、财务或社会等方面的伤害。人工智能领域的伤害可能来自于对个人数据的处理(包括数据的采集、存储、使用方式等)。为避免伤害,为用于培训人工智能算法而采集和使用的数据必须要避免歧视、操纵或负面判断。同时,人工智能系统的开发与实施还必须保护社会避免意识形态的两极分化和算法决定论。 避免伤害,也包括对环境和动物的伤害。因此,避免伤害的原则应当包括开发环保型的人工智能。地球资源有其本身的价值,也有着供人类消费的价值。无论是哪一种,人工智能的研究、开发和使用有必要坚持环保意识。
自主原则:“保留人类的能动性”。人工智能开发所涉及的人类自主性,意味着人类自由不从属于人工智能,也不受其胁迫。在与人工智能系统的交互中,人类必须保持完整有效的自决权。这就要求人工智能的消费者或使用者有权决定是否遵守人工智能的直接或间接决策,有权知晓与人工智能系统进行直接或间接互动的知识,并有权选择拒绝或退出。
公正原则。本准则所提及的公正原则要求人工智能系统的开发、使用与监管必须公平。开发者和实施者需要确保个体与少数群体享有不遭受偏见、侮辱和歧视的自由。此外,人工智能的开发应当平衡利弊,避免加剧弱势群体的遭遇,努力为其争取在教育、商品、服务和技术上不受歧视的公平机会。公正还意味着人工智能系统必须要提供有效的救济措施,以防范意外伤害或者数据偏离人类个体或集体偏好。最后,公正原则还要求人工智能的开发者或实施者必须拥有高标准的问责机制。为人工智能的性能制定(道德)标准,将有益于造福人类。
可解读原则:“透明操作”。透明度是人工智能系统及其开发者赢得并维持信任的关键。从道德立场上来看,技术和商业模式的透明度都十分重要。技术上的透明度,是指人工智能系统要能够被理解能力和专业水平各不相同的人士所审查和理解。商业模式上的透明度,是指人工智能系统开发者与技术实施者要明确告知其意图。
可解读是个体在与人工智能交互时实现知情同意的前提,而为确保实现可解读与无伤害原则,就应当保障知情同意的要求。可解读还要求必须采取追责措施。个体与机构可要求人工智能系统的组织者与开发者、技术实施者或供应链上的第三方基本参数与说明的证据(人工智能系统的发现或预测,或者发现和预测所涉及的因素),以此为依据来分析人工智能的决策。
人工智能引发的重大关注
人工智能的具体用途或应用以及领域或语境可能会违背上述的权利和原则,从而引发重大关注。与其他强大的技术一样,人工智能虽然有助于实现欧盟价值观,但其两面性本质意味着人工智能也可能会侵犯这些价值观。下面列出了部分重大关注,在未来可能会有所缩减或变动。
未经同意的身份识别。公共或私营机构都可以运用人工智能来更加高效的识别个体身份。人工智能领域的控制技术必须合情合理,才能保障欧洲民众的自主权。在个体身份识别与个体跟踪之间,以及针对监控与大众监控之间进行区分,是实现可信赖的人工智能的关键。
目前互联网上也有知情同意的机制,但消费者往往不假思索就点击同意。这就要求监管者必须根据实际情况构建全新机制,让公民能够给出可验证的同意,让人工智能或同等技术能够自动识别验证。面部识别或其他使用生物计量数据的非自愿身份识别手段都属于可扩展人工智能身份识别技术(如谎言测试、通过微表情进行性格评估、自动语音识别等)。个体身份识别有时也符合道德原则(如发现欺诈、洗钱或资助恐怖分子等行为)。在现有法律或者对核心价值观的保护没有明确规定可以采用此类技术的地方,自动身份识别会引发重大的法律与道德关注,其默认条件是用户并没有给出同意身份验证的意思表示。这同时也适用于使用能够进行逆向身份验证的“匿名”个人数据。
隐秘的人工智能系统。人工智能的开发者和部署者有責任让用户知道交互对象是人类还是机器,这一点必须可靠实现。此外,掌握人工智能的控制权,操纵人类的能力就可能达到前所未有的规模。因此,人工智能开发者和部署者应当确保人类了解交互对象是人工智能的这一事实,或者能够要求并验证这个事实。值得注意的是,存在可能让事态更加复杂的边缘情况,比如用人工智能过滤人类语音。机器人就可视为是一种隐秘的人工智能系统,因为机器人在尽量模仿人类行为。机器人进入到人类社会有可能改变人们对人类及人性的认知。人们必须牢记,人类与机器的混合将导致多重后果,包括归属感、影响力,或者降低人类的价值。因此,类人与人形机器人的开发必须要进行谨慎的道德评估。
所有公民的自由与自主都应得到尊重。政府机构在各方面进行大规模标准化公民评分(如“道德人格”或者“道德诚实”方面的总体评估)将危及这些价值观,特别是在不符合基本权利或者规模失调且没有明确合法目标的情况下。当今世界,大小规模的公民评分常为具体领域的单纯说明性评分(如学校系统、电子学习或驾照)。但是,公民评分如果要应用于有限的社会领域,就必须要为公民提供透明流程,并提供评分过程、目的和方法方面的信息,在理想情况下还要向公民提供退出评分机制的选择权。在双方权利不对称的情况下,这一点尤为重要。因此,开发者和部署者都应当在技术设计中保障这种选择权,并提供必要的资源予以实现。
致命自动化武器系统(LAWS)。致命自动化武器系统可以在没有人类控制的情况下自动执行选择与攻击个体目标的关键功能。而最终,所有伤亡还是必须要由人类负责。目前,不明数量的企业和国家正在研究和开发致命自动化武器系统。这种情况会引发基本的道德关注,比如会导致前所未有的军备竞赛失控,会导致人类完全放弃控制、故障风险完全无解的军事环境。不过还有另一方面需要注意,那就是致命自动化武器系统能够在武装冲突中减少附带伤害,比如有选择的解救儿童。欧洲议会呼吁紧急制定共同遵守的法律,解决人类控制、监督的道德与法律问题,落实国际人权法律、国际人道主义法律和军事战略的问责与落实机制。
远期关注。当前所有的人工智能仍然仅涉及具体领域,需要训练有素的人类科学家和工程师为其指定准确目标。但是,长远的未来仍然存在一些重大关注,虽然这些仅仅是猜测。尽管以现在的眼光看来,出现这些情况的可能性并不大,但其潜在危害却可能十分巨大(比如拥有主观经验的人工意识、人工道德实体或者无监督递归自我改进型人工智能(AGI)等,这些技术在今天看来尚遥遥无期)。因此,人们需要采取风险评估策略,始终关注这些领域的发展,并投入资源减少远期风险。
人工智能道德准则草案结论
人工智能已给全球商业和社会带来巨大的积极影响。人工智能是一种变革与颠覆性技术。过去几年,得益于海量数字化数据、计算能力与存储能力的重大进步以及人工智能方法与工具的重大科研创新,人工智能实现了跨越式发展。
人工智能将继续给社会和民众带来难以预料的影响。这种前景令人振奋,但人们也必须保持警惕,应正确认识可信赖的人工智能,并努力加以践行,只有赢得人类的信任,技术才能发挥造福人类的巨大作用。因此,实现可信赖的人工智能是本文件的根本宗旨。
可信赖的人工智能包含两个方面:第一,应尊重基本权利、相关规则和核心原则,确保“道德目标”的实现;第二,技术上必须稳健可靠。