论文部分内容阅读
读过科幻小说的人都会告诉你,机器人一旦失控将会带来可怕的后果。IEEE(电气与电子工程师协会)对此做了深入的研究。
最近,全球最大的专业技术学会组织IEEE发表了一份报告,强调了工程师和研究人员在开发新的智能软件和硬件时,应以合乎伦理的方式进行思考。在他们看来,人工智能技术(AI)的发展应该要与人类的道德价值观和伦理原则相符合。
这份题为《伦理对齐设计》的报告长达100多页,提出了相应的发展指南和指导准则,希望AI领域专家、自动化系统专家应更多的投身系统设计的后果等方面的研究,并将人类伦理带入到AI的研究推廣当中。
在AI席卷全球的当下,智能制造和自动化系统中的伦理因素已变得越来越重要,因为越来越多的AI技术已被运用到市场和政府的工作当中。由此引发的很多讨论也是围绕着先进的AI系统而展开的,而现在已经有了能够对商业和政治决策产生重大影响的AI新技术。
IEEE人工智能与自主系统伦理道德考虑全球行动计划主席Raja Chatila在接受媒体采访时表示,AI系统技术工程师未必都清楚人与智能机器人之间存在的潜在问题。
他说,“我个人认为,大多数工程师和公司还没有真正意识到这些伦理问题,也没有真正面对这些问题。因为他们虽然受过开发高效工作的系统的培训,但是没有受过关于伦理问题的培训。”
已经出现的问题之一,即算法偏差。AI系统的确能够反映制造者的意图,但是如果这些意图与使用者不一致时,就有可能带来很多棘手的问题。
关于AI技术在研发与生产过程的透明度,该报告反复强调,急需建立一个能够报告“为什么做出该决定”的自动化系统。然而,目前最先进的AI系统也很难实现这个目的。更重要的是,研发企业隐藏AI系统的内部详细信息的情况也不少见,这也是推动AI系统透明度面临的一个重要问题。
透明度不仅是理解图像识别算法等技术的关键,也是未来我们如何进行战争的关键。IEEE报告对AI武器的讨论充斥着平静而可怕的语言,如“这些AI机器一旦失控将导致不负责任的暴力和社会破坏”。
为了阻止AI武器带来极大的破坏性,IEEE组希望更多的人参与到这些AI系统研发之中,在AI武器启动之前能够实现有效的控制。
未来,IEEE将围绕伦理和AI而建立IEEE标准,并针对AI系统设计中伦理问题建立三项标准(其中一项已经实施),另外两个正在制定中。
制定标准的过程,需要市场去接受采用它们,因为,伦理系统的建立将降低65%使用AI武器杀人的可能性,这更能吸引人们关注。但更有可能是,许多科学家并不理会这些伦理问题,继续以自己的方式研究开发。
IEEE研究团队现在开放了这份报告的文档,以获得更多的公众反馈。任何人都可以提出对其内容的看法,而该小组希望看到的是可以引用的、可操作的反馈,而且长度少于两页。提交截止日期为2017年3月6日。
(作者Blair Hanley Frank任职于IDG通讯社,关注公共云、生产力和操作系统。原文链接https://www.idgns.com/idgns/article?id=3149100 )
最近,全球最大的专业技术学会组织IEEE发表了一份报告,强调了工程师和研究人员在开发新的智能软件和硬件时,应以合乎伦理的方式进行思考。在他们看来,人工智能技术(AI)的发展应该要与人类的道德价值观和伦理原则相符合。
这份题为《伦理对齐设计》的报告长达100多页,提出了相应的发展指南和指导准则,希望AI领域专家、自动化系统专家应更多的投身系统设计的后果等方面的研究,并将人类伦理带入到AI的研究推廣当中。
在AI席卷全球的当下,智能制造和自动化系统中的伦理因素已变得越来越重要,因为越来越多的AI技术已被运用到市场和政府的工作当中。由此引发的很多讨论也是围绕着先进的AI系统而展开的,而现在已经有了能够对商业和政治决策产生重大影响的AI新技术。
IEEE人工智能与自主系统伦理道德考虑全球行动计划主席Raja Chatila在接受媒体采访时表示,AI系统技术工程师未必都清楚人与智能机器人之间存在的潜在问题。
他说,“我个人认为,大多数工程师和公司还没有真正意识到这些伦理问题,也没有真正面对这些问题。因为他们虽然受过开发高效工作的系统的培训,但是没有受过关于伦理问题的培训。”
已经出现的问题之一,即算法偏差。AI系统的确能够反映制造者的意图,但是如果这些意图与使用者不一致时,就有可能带来很多棘手的问题。
关于AI技术在研发与生产过程的透明度,该报告反复强调,急需建立一个能够报告“为什么做出该决定”的自动化系统。然而,目前最先进的AI系统也很难实现这个目的。更重要的是,研发企业隐藏AI系统的内部详细信息的情况也不少见,这也是推动AI系统透明度面临的一个重要问题。
透明度不仅是理解图像识别算法等技术的关键,也是未来我们如何进行战争的关键。IEEE报告对AI武器的讨论充斥着平静而可怕的语言,如“这些AI机器一旦失控将导致不负责任的暴力和社会破坏”。
为了阻止AI武器带来极大的破坏性,IEEE组希望更多的人参与到这些AI系统研发之中,在AI武器启动之前能够实现有效的控制。
未来,IEEE将围绕伦理和AI而建立IEEE标准,并针对AI系统设计中伦理问题建立三项标准(其中一项已经实施),另外两个正在制定中。
制定标准的过程,需要市场去接受采用它们,因为,伦理系统的建立将降低65%使用AI武器杀人的可能性,这更能吸引人们关注。但更有可能是,许多科学家并不理会这些伦理问题,继续以自己的方式研究开发。
IEEE研究团队现在开放了这份报告的文档,以获得更多的公众反馈。任何人都可以提出对其内容的看法,而该小组希望看到的是可以引用的、可操作的反馈,而且长度少于两页。提交截止日期为2017年3月6日。
(作者Blair Hanley Frank任职于IDG通讯社,关注公共云、生产力和操作系统。原文链接https://www.idgns.com/idgns/article?id=3149100 )