论文部分内容阅读
DOI:10.16660/j.cnki.1674-098X.2106-5640-3219
摘 要:隨着人工智能在社会各行业的不断发展融合,智能技术给社会生产生活带来便利的同时又伴随着一系列的社会风险。通过对人工智能技术应用现状的分析,从个人层面和社会层面提出人工智能带来的社会挑战。在对人工智能风险挑战分析的基础上,提出风险防范机制和措施,并从技术研发、社会应用及风险治理三方面构建了人工智能风险防范路径,形成了人工智能应用风险防范体系。
关键词:社会稳定 人工智能 风险分析 防范路径
中图分类号:TP18 文献标识码:A 文章编号:1674-098X(2021)06(b)-0082-05
Risk prevention of artificial intelligence application based on the perspective of social stability
SUN Hongyan XIE Zhengen YUAN Guoping
(Southwest Medical University, Luzhou, Sichuan Province, 646000 China)
Abstract: With the continuous development and integration of artificial intelligence in various social industries, intelligent technology not only brings convenience to social production and life, but also accompanied by a series of social risks. Through the analysis of the application status of artificial intelligence technology, this paper puts forward the social challenges brought by artificial intelligence from the personal and social levels. Based on the analysis of the risk challenge of artificial intelligence, this paper puts forward the risk prevention mechanism and measures, constructs the risk prevention path of artificial intelligence from the three aspects of technology R & D, social application and risk governance, and forms the risk prevention system of artificial intelligence application.
Key Words: Social stability; Artificial intelligence; Risk analysis; Prevention path
信息技术的发展促使人工智能时代的到来,以物联网为基础的人工智能被广泛的应用于工业制造、医疗健康、家庭助手、金融与商业等领域。人工智能技术日渐成熟,计算机深度学习与边缘计算、5G技术等也进入快速融合发展时期,人工智能正逐步进入社会大众的日常生活之中,其广阔的发展前景也得到公众和社会的认可。智能应用和社会生产生活不断地融合使得工作生活便利的同时,也因智能产品自身感知能力等原因,引发了安全和风险的很多负面问题,如智能设备劫持、虚拟语音诈骗、智能网络攻击等[1]。同时,人工智能的自主性发展到一定程度机器会拥有自主意识,可能会致使人工智能失去控制,对人类社会造成威胁。这些问题和威胁促使对人工智能应用风险和防范进行研究,期望维护社会安全的同时填补人工智能应用规范化方面的空白,这对社会稳定和人工智能的健康发展具有重要的意义。
1 人工智能社会化发展
人工智能的起源是在20世纪50年代,由马文·明斯基和邓恩·埃德蒙所建造的世界上第一台神经网络计算机,因此马文·明斯基也被后人称为人工智能之父。1956年达特茅斯会议上,计算机专家约翰·麦卡锡首次提出“人工智能”一词,标志着人工智能的正式诞生,此后十余年的时间人工智能得到了迅速发展。但自20世纪70年代以后,由于科研人员在人工智能研究中对项目难度预估不足,导致人工智能的发展受到限制[2]。直到20世界90年代,随着神经网络的逐步发展,人工智能在模式识别和智能预测方面得到突破。在此之后,得益于计算机硬件技术发展和算法的不断改进,人工智能在社会生活中的应用也不断深入,如人脸识别、智能搜索、自动驾驶等,使得公众生活享受到极大便利。人工智能的发展应用给社会各行业带来了新的发展机遇,也催生了新的经济增长点。与此同时,人工智能的应用也造成了一定的社会安全隐患。某知名智能人脸识别系统曾遭攻击者侵入管理端,通过程序修改致使人脸识别门禁失效,任何人脸都可以通过门禁。2018年在上海召开的世界人工智能大会,社会安全风险再次和网络安全风险、信息安全风险和国家安全风险等被提出和强调。 根据自主学习程度,人工智能的应用可以分为弱人工智能(Weak AI)、強人工智能(Strong AI)、超人工智能(Super Intelligence)3个级别[3]。弱人工智能只能应用于解决某一特定领域问题,是具有限制性的人工智能。强人工智能指的是可以胜任人类所有工作的人工智能,也称为完全人工智能。超人工智能是指通过计算机程序的不断发展,所产生的比人类天赋更高的人工智能系统。目前,人工智能在社会中的应用处于完成简单指令的弱人工智能阶段。有学者指出,处于弱人工智能阶段的智能应用一旦与人类的一般智力相匹配,可能会迅速超越人类智慧,产生所谓的“超级人工智能”,对社会生产及人类安全形成巨大威胁[3]。人工智能的发展给社会生产生活带来了极大的便利和不可预知的潜在风险,在享受人工智能技术带来的便利的同时规避智能应用的风险,已成为亟待当今众多学者研究解决的热点问题。
2 人工智能对社会稳定的挑战
面对人工智能技术的迅猛发展和失控风险,霍金曾警告世人,人类的贪婪和无知将不可避免的催生出“流氓人工智能系统”[4]。人工智能具有以往任何技术所不具备的自主性的特征,自主性为人工智能解决问题带来可控制和可预见性,这也是人工智能所带来社会风险主要原因所在。为系统全面的分析人工智能应用带来的风险,下面从个人层面和社会层面2个维度对人工智能影响社会稳定的相关风险进行分类评述。
2.1 个人层面的挑战
2.1.1 加速个人数据信息的泄露风险
伴随着基于传感器、物联网等智能设备应用的增多,致使应用于人工智能问题处理以及决策的数据也越来越多。智能设备上的社交、行程、支付等方面非结构化数据的增多,个人数据经常被过度的采集应用,导致个人隐私数据被泄露。2019年国内某智能家居公司产品数据库,在物联网管理平台无任何密码的情况下运行,泄露包括用户名、密码、电子邮件等信息的20亿条日志。如果这些信息被别有用心者获取,通过数据训练改变原有分类器边界,或者利用反馈机制对数据库发动攻击,向数据模型输入篡改后数据或信息,将导致人工智能无法做出正确的判断。
2.1.2 智能算法存在社会歧视
人工智能技术上的盲点和偏见会导致特定人群成为系统“偏见”和“歧视”的受害者[5]。牛津大学一项研究显示,个人在浏览网页时,智能算法会基于浏览者的浏览行为,推断个人敏感信息,并且根据偏好推送定制化信息为广告商推送精准受众。这样不但破坏了个人自主选择的权利,而且容易产生价格歧视。在智能信息时代算法歧视还会引发更为隐蔽的算法连带歧视,即便算法在信息生产和分发中处于中立立场,也存在被滥用的风险。算法歧视存在的主要原因在于算法的局限性以及不透明性。一方面算法是计算进程对人类社会运作规则的重构,而世界文化空间的多元化使得算法无法完全量化,容易造成社会歧视的发生。另一方面,算法形成过程中因涉及商业或技术机密,运算过程具有不透明性。
2.2 社会层面的挑战
2.2.1 具有加巨社会两级分化风险
社会层面的智能应用风险主要表现为:加剧失业以及社会贫富分化。对于制造业等重复的生产过程,人工智能的应用能够提高生产效率、降低生产成本。未来10~15年,智能技术与社会生产生活应用融合过程中,将带来更加自动化的生产和智能化服务,将有越来越多的工作不需要或只需要很少的人来完成,这就意味着以此类行业为生的工人将面临失业风险;智能化社会的发展,使得新兴智能产业能够在较短时间内获得较大的发展空间,由此导致行业分化趋势也更加明显[6]。为超级富翁带来惊人财富的同时,也给数百万的失业者带来极度的贫困。
2.2.2 网络信息安全受到严重威胁
人工智能超强的自动化程度和强大的数据分析能力,成为许多家庭、企业以及政府检测与对抗网络安全的工具。智能时代的网络安全威胁主要来源于以下2个方面:第一,人工智能本身可能存在的安全漏洞。智能产品及服务的架构极有可能存在系统安全漏洞。随着人工智能在社会中的应用越来越广泛,无人值守等智能一旦因系统漏洞发生网络劫持,将造成严重的社会公共安全事件。第二,有组织的网络攻击。最著名的就是近年来智能语音所遭受的“海豚音攻击”行为,该攻击人耳无法听见,黑客通过超声波信号劫持智能设备的语音系统,再利用麦克风硬件漏洞开启语音助手,就能把用户的智能设备当做窃听器来窃取私人信息。人工智能的分析处理能力可提升网络攻击性,对网络安全防护体系造成威胁与挑战。
2.2.3 人工智能法律制度缺失
人工智能与社会应用的不断融合,使得智能系统功能不断强大,人工智能的控制和监督问题也不断出现。当前智能医疗技术已趋于成熟,但现实中推广阻力重重。表面看来是隐私泄露以及使用不合法等原因制约了人工智能在医学中的应用发展,但究其最主要原因还在于人工智能法律制度的空白。缺少了法律制度的规范和保障,人工智能与社会各行业的深度融合也只能浮在空中。有学者研究指出,人工智能系统应用带来的风险可能会被证实法律体系难以应对的[6]。一般来说,法律法规监管分为事前监管和事后监管。智能产品的研发具有不透明性、不明确性,这使得传统产品的监管方法,在处理人工智能应用的风险时产生严重不足,导致事前监管会困难重重。人工智能自主性引发风险的可预见性和可控性的难度较高,也经常使得事后监管起不到效果。
3 社会稳定视角下的人工智能风险防范路径
人工智能研发设计的目标在于将智能化的技术应用于社会生产和生活中,在造福社会公众的同时,促进各行业、领域的创新升级。友好人工智能概念的提出者尤德科夫斯基指出:人工智能系统的设计开发应该是对人类有益且无害的,如果人工智能是以牺牲社会利益为代价的话,那么它就不应由于设计者的私利而在社会中应用[7]。面对人工智能对社会稳定造成的种种挑战,需要构建风险防范体系来保障人工智能朝有利于人类社会的方向发展。 3.1 人工智能的风险防范
3.1.1 技术层面的风险风范
技术层面的风险挑战主要是人工智能的研发方式。因为智能系统的设计不局限与特定时间地点,同时系统开发经常处于不对外公开的状态。致使危险人工智能的设计处于无监督意识状态,常出现产品安全、算法偏见、法律及伦理道德等的安全问题。其中危险程度和防范难度最高的当属恶意人工智能,对于这种通过人为制造的恶意人工智能,可以通过研发过程中的约束机制和伦理道德防范培训,来促使研发过程中的规范性,从而发展安全有益的人工智能。
一方面在智能应用的研发过程中,采取有力约束机制。必须对设计的有效性、安全性和可控性等进行反复验证,避免技术带来的负面影响,保证产品的可解释性和安全投入使用。另一方面,建立完善、系统的伦理道德培训机制,促进研发人员树立良好的伦理道德价值观念。人工智能伦理道德培训体系主要包括:责任、权利、公平性等,由人工智能研发专家、心理学、社会哲学等多学科专家同参与制订,经过不断完善修改最终形成一套完善的培训体系。高校相关专业(人工智能、计算科学等计算机相关专业)将伦理道德课程引入专业必修,从大学期间加强未来技术人员的伦理道德素养。
3.1.2 数据层面的风险防范
人工智能数据层面的风险防范主要靠国家层面的数据治理和监管,通过相关法律法规来规范智能应用产生数据的获取范围。数据层面的人工智能应用防范需要从数据安全和算法安全制定应对策略。
关于数据安全方面的风险防范主要通过立法来保证数据的安全使用,从法律政策上规范智能设备数据的安全运用。同时,加强数据安全监管和增强管理人员的安全意识。建立人工智能数据监管机构,协调人工智能数据研发、软硬件设备、数据使用共同响应,在不断推进人工智能技术创新发展的同时,保障智能数据的安全使用;增强智能系统管理人员安全意识,定时后台巡查数据运行状况,做到能够快速灵活的应对未知威胁,从而降低数据安全风险发生事件。
算法安全风险防范主要从数据全面性和算法可解释性加强防范。智能操作的前提是对数据的训练,保证训练数据集的全面、实时和广泛性是消除算法偏见和歧视,确保算法安全的前提。其次,确保算法的可解释性可消除人工智能决策的不可控性。人工智能監管部门对智能算法进行审查备案,利用最新测试技术审核算法的各种概念和权重,打破黑盒操作的不可解释性,促使算法向透明性和可解释性方向发展,及时发现和消除算法实施中的歧视和偏见。
3.1.3 社会关系层面的应用防范
人工智能发展在社会层面主要是面临技术失控风险。短期内取决于可预见性风险的控制程度,长期风险存在于智能设备的自动化程度,超人工智能拥有等同甚至高于人类的自主能力,以现有认知能力还难以预测和判断。基于此社会层面的应用风险防范主要从风险研究、法律规范、社会监管等方面为人工智能的可预期发展提供安全指导。
加大人工智能安全风险研究构筑安全防控体系。从国家层面组织人工智能科研机构,专门研究人工智能在社会应用中的风险及防范,研究成果为法律政策、技术监管提供有效指导。针对研究发现的安全风险,不断建设和完善人工智能安全防控体系,做到在社会生产和公众生活中利用好人工智能技术,推进智能技术安全可靠的发展。
加快人工智能应用立法。人工智能技术的不断发展必然引发社会生产关系和社会结构行为的不断变化,容易引发不可预知的安全风险,必须通过法律制度来规范智能主体的异常变化。人工智能发展的现阶段,法律研究及问题主要聚焦于智能主体的法律地位、智能行为的法律责任等。技术更新迭代速度飞快,人工智能立法研究也应该具有前瞻性,这样才能使不断出现的新问题有法可依有章可循。
加强人工智能的社会监管。针对研究可能面临的人工智能安全问题,组织与智能产品生产服务无直接关联的社会机构,对智能产品和服务进行社会监管。一方面对智能产品或服务做市场应用前的测试和审查;另一方面对存在安全缺陷的产品和服务依法上报处理,积极运用人工智能技术提高安全监管能力,做到对智能产品和服务全方位、立体化监管。
3.2 基于社会稳定层面的人工智能风险防范体系构建
随着社会发展与人工智能的不断融合,智能技术在完成创新发展,提高社会效益的同时,也对社会稳定提出了新的挑战。结合人工智能应用构建了人工智能风险防范体系,具体如图1所示。
在技术研发阶段,主要是人工智能工程技术人员对智能系统的设计、研发和实施。需要人工智能技术研发者和智能风险评估专家相互配合,在智能系统的开发前期杜绝人为安全隐患,将智能系统可能存在的安全问题降到最低。
社会应用阶段,以具体的智能应用为基础,将智能应用分为短期、中期和长期3个阶段。在短期阶段,人工智能的应用风险主要是智能系统的可靠性和可解释性,主要表现为数据训练集的全面性以及预测结果的准确度,同时智能系统运算过程必须具有可解释性,避免黑盒操作带来的不可预知风险。中期阶段,智能系统可通过更有效的算法进行数据的训练,在现实应用中可得到更精确的运算结果。此阶段的风险防范主要是防范人类智能对人工智能的过度依赖,人类应通过技术、服务和管理的相互配合来掌握智能应用的主动权,同时预防因过度依赖智能系统导致的人类大脑进化中的退化。长期阶段,人工智能应用的风险来自于智能系统的自主干预性。当智能应用拥有自主意识后,怎样安全有效的完成既定目标,以及智能物和智能物之间的安全联系,都是需要进一步研究的课题。
基于人工智能社会应用各阶段的风险点,建议采用多主体多层次的风险防范监管模式。从人工智能技术的研发方面,实施多层次的备案监管制度。一般研发由地方监管部门备案登记,并实施监管,重大研发项目应在国家专门部门备案并监管。从人工智能的社会应用方面,实施由智能应用主管部门的自律与监督制度是人工智能在诸如金融、制造、医疗等重要领域的有效工具。同时,人工智能技术和社会应用迭代速度之快,在防范智能系统性风险的发生的同时,还要密切关注智能技术的社会应用风险,将自身风险和滥用风险都降到最低范围。 风险治理阶段主要包括:风险的评估、责任的判定、惩罚与补偿等,以及风险发生过后的法律制度完善和实施保障。同时,风险循环反馈保障机制贯穿于研发、应用和治理三部分,为风险防控体系提供实时动态数据更新,有效保障人工智能技术的安全应用。
4 结语
人工智能的迅速崛起对社会稳定发展提出了新的挑战,有效解决发展与挑战之间的关系除了加强技术和社会关系的防范外,还要加快人工智能领域的立法以及全球合作。当前我国人工智能除了技术与应用方面的发展,在网络安全和数据应用方面也有涉及,而《中华人民共和国网络安全法》的颁布,在法律层面对个人信息安全进行保护。2020年8月,国家新一代人工智能体系建设指南颁布,旨在发展负责任的人工智能。虽然人工智能的发展已备受国家层面的关注,但是人工智能的法律保障体系是缺失的,世界各国对人工智能的立法也都还处于探讨时期,没有成型的法律法规可供参考。
目前我国处在人工智能技术的领先国家行列,智能技术与社会应用在跨界融合推动社会发展的同时,也面临史无前例的社会安全隐患,这也恰恰是最大的時机。在人工智能的社会应用中及时发现和解决存在的安全隐患,使智能技术朝着友好人工智能方向发展,应成为全球人工智能发展的共识。
参考文献
[1] 王君,张于喆,张义博.人工智能等新技术进步影响就业的机理与对策[J].宏观经济研究,2017(10):169-181.
[2] 张耘堂.基于“人工智能+”经济模式创新的分析[J].自然辩证法研究,2019,35(9):61-66.
[3] 刘涛雄,刘骏.人工智能、机器人与经济发展研究进展综述[J].经济社会体制比较,2018(6):172-178.
[4] G.Graetz and G.Michaels,Robots at Work.The Impact on Productivity and Jobs,CentrePiece-The Magazine for Economic Performance,vol.447,Centre for Economic Performance, LSE[Z].2015.
[5] 李新瑜,张永庆.基于产业链视角的人工智能风险分析及其防范[J].人文杂志,2020(4):47-57.
[6] 陈洪兵,陈禹衡.刑法领域的新挑战:人工智能的算法偏见[J].广西大学学报:哲学社会科学版,2019(5): 85-93.
[7] 李政涛.依托人工智能开展大学生就业观教育改革的策略研究[J].科技资讯,2020,18(2):142-144.
[8] 马长山.人工智能的社会风险及其法律规制[J].法律科学,2018(6):47-55.
[9] 陈伟光,袁静.人工智能全球治理:基于治理主体、结构和机制的分析[J].国际观察,2018(4):23-27.
摘 要:隨着人工智能在社会各行业的不断发展融合,智能技术给社会生产生活带来便利的同时又伴随着一系列的社会风险。通过对人工智能技术应用现状的分析,从个人层面和社会层面提出人工智能带来的社会挑战。在对人工智能风险挑战分析的基础上,提出风险防范机制和措施,并从技术研发、社会应用及风险治理三方面构建了人工智能风险防范路径,形成了人工智能应用风险防范体系。
关键词:社会稳定 人工智能 风险分析 防范路径
中图分类号:TP18 文献标识码:A 文章编号:1674-098X(2021)06(b)-0082-05
Risk prevention of artificial intelligence application based on the perspective of social stability
SUN Hongyan XIE Zhengen YUAN Guoping
(Southwest Medical University, Luzhou, Sichuan Province, 646000 China)
Abstract: With the continuous development and integration of artificial intelligence in various social industries, intelligent technology not only brings convenience to social production and life, but also accompanied by a series of social risks. Through the analysis of the application status of artificial intelligence technology, this paper puts forward the social challenges brought by artificial intelligence from the personal and social levels. Based on the analysis of the risk challenge of artificial intelligence, this paper puts forward the risk prevention mechanism and measures, constructs the risk prevention path of artificial intelligence from the three aspects of technology R & D, social application and risk governance, and forms the risk prevention system of artificial intelligence application.
Key Words: Social stability; Artificial intelligence; Risk analysis; Prevention path
信息技术的发展促使人工智能时代的到来,以物联网为基础的人工智能被广泛的应用于工业制造、医疗健康、家庭助手、金融与商业等领域。人工智能技术日渐成熟,计算机深度学习与边缘计算、5G技术等也进入快速融合发展时期,人工智能正逐步进入社会大众的日常生活之中,其广阔的发展前景也得到公众和社会的认可。智能应用和社会生产生活不断地融合使得工作生活便利的同时,也因智能产品自身感知能力等原因,引发了安全和风险的很多负面问题,如智能设备劫持、虚拟语音诈骗、智能网络攻击等[1]。同时,人工智能的自主性发展到一定程度机器会拥有自主意识,可能会致使人工智能失去控制,对人类社会造成威胁。这些问题和威胁促使对人工智能应用风险和防范进行研究,期望维护社会安全的同时填补人工智能应用规范化方面的空白,这对社会稳定和人工智能的健康发展具有重要的意义。
1 人工智能社会化发展
人工智能的起源是在20世纪50年代,由马文·明斯基和邓恩·埃德蒙所建造的世界上第一台神经网络计算机,因此马文·明斯基也被后人称为人工智能之父。1956年达特茅斯会议上,计算机专家约翰·麦卡锡首次提出“人工智能”一词,标志着人工智能的正式诞生,此后十余年的时间人工智能得到了迅速发展。但自20世纪70年代以后,由于科研人员在人工智能研究中对项目难度预估不足,导致人工智能的发展受到限制[2]。直到20世界90年代,随着神经网络的逐步发展,人工智能在模式识别和智能预测方面得到突破。在此之后,得益于计算机硬件技术发展和算法的不断改进,人工智能在社会生活中的应用也不断深入,如人脸识别、智能搜索、自动驾驶等,使得公众生活享受到极大便利。人工智能的发展应用给社会各行业带来了新的发展机遇,也催生了新的经济增长点。与此同时,人工智能的应用也造成了一定的社会安全隐患。某知名智能人脸识别系统曾遭攻击者侵入管理端,通过程序修改致使人脸识别门禁失效,任何人脸都可以通过门禁。2018年在上海召开的世界人工智能大会,社会安全风险再次和网络安全风险、信息安全风险和国家安全风险等被提出和强调。 根据自主学习程度,人工智能的应用可以分为弱人工智能(Weak AI)、強人工智能(Strong AI)、超人工智能(Super Intelligence)3个级别[3]。弱人工智能只能应用于解决某一特定领域问题,是具有限制性的人工智能。强人工智能指的是可以胜任人类所有工作的人工智能,也称为完全人工智能。超人工智能是指通过计算机程序的不断发展,所产生的比人类天赋更高的人工智能系统。目前,人工智能在社会中的应用处于完成简单指令的弱人工智能阶段。有学者指出,处于弱人工智能阶段的智能应用一旦与人类的一般智力相匹配,可能会迅速超越人类智慧,产生所谓的“超级人工智能”,对社会生产及人类安全形成巨大威胁[3]。人工智能的发展给社会生产生活带来了极大的便利和不可预知的潜在风险,在享受人工智能技术带来的便利的同时规避智能应用的风险,已成为亟待当今众多学者研究解决的热点问题。
2 人工智能对社会稳定的挑战
面对人工智能技术的迅猛发展和失控风险,霍金曾警告世人,人类的贪婪和无知将不可避免的催生出“流氓人工智能系统”[4]。人工智能具有以往任何技术所不具备的自主性的特征,自主性为人工智能解决问题带来可控制和可预见性,这也是人工智能所带来社会风险主要原因所在。为系统全面的分析人工智能应用带来的风险,下面从个人层面和社会层面2个维度对人工智能影响社会稳定的相关风险进行分类评述。
2.1 个人层面的挑战
2.1.1 加速个人数据信息的泄露风险
伴随着基于传感器、物联网等智能设备应用的增多,致使应用于人工智能问题处理以及决策的数据也越来越多。智能设备上的社交、行程、支付等方面非结构化数据的增多,个人数据经常被过度的采集应用,导致个人隐私数据被泄露。2019年国内某智能家居公司产品数据库,在物联网管理平台无任何密码的情况下运行,泄露包括用户名、密码、电子邮件等信息的20亿条日志。如果这些信息被别有用心者获取,通过数据训练改变原有分类器边界,或者利用反馈机制对数据库发动攻击,向数据模型输入篡改后数据或信息,将导致人工智能无法做出正确的判断。
2.1.2 智能算法存在社会歧视
人工智能技术上的盲点和偏见会导致特定人群成为系统“偏见”和“歧视”的受害者[5]。牛津大学一项研究显示,个人在浏览网页时,智能算法会基于浏览者的浏览行为,推断个人敏感信息,并且根据偏好推送定制化信息为广告商推送精准受众。这样不但破坏了个人自主选择的权利,而且容易产生价格歧视。在智能信息时代算法歧视还会引发更为隐蔽的算法连带歧视,即便算法在信息生产和分发中处于中立立场,也存在被滥用的风险。算法歧视存在的主要原因在于算法的局限性以及不透明性。一方面算法是计算进程对人类社会运作规则的重构,而世界文化空间的多元化使得算法无法完全量化,容易造成社会歧视的发生。另一方面,算法形成过程中因涉及商业或技术机密,运算过程具有不透明性。
2.2 社会层面的挑战
2.2.1 具有加巨社会两级分化风险
社会层面的智能应用风险主要表现为:加剧失业以及社会贫富分化。对于制造业等重复的生产过程,人工智能的应用能够提高生产效率、降低生产成本。未来10~15年,智能技术与社会生产生活应用融合过程中,将带来更加自动化的生产和智能化服务,将有越来越多的工作不需要或只需要很少的人来完成,这就意味着以此类行业为生的工人将面临失业风险;智能化社会的发展,使得新兴智能产业能够在较短时间内获得较大的发展空间,由此导致行业分化趋势也更加明显[6]。为超级富翁带来惊人财富的同时,也给数百万的失业者带来极度的贫困。
2.2.2 网络信息安全受到严重威胁
人工智能超强的自动化程度和强大的数据分析能力,成为许多家庭、企业以及政府检测与对抗网络安全的工具。智能时代的网络安全威胁主要来源于以下2个方面:第一,人工智能本身可能存在的安全漏洞。智能产品及服务的架构极有可能存在系统安全漏洞。随着人工智能在社会中的应用越来越广泛,无人值守等智能一旦因系统漏洞发生网络劫持,将造成严重的社会公共安全事件。第二,有组织的网络攻击。最著名的就是近年来智能语音所遭受的“海豚音攻击”行为,该攻击人耳无法听见,黑客通过超声波信号劫持智能设备的语音系统,再利用麦克风硬件漏洞开启语音助手,就能把用户的智能设备当做窃听器来窃取私人信息。人工智能的分析处理能力可提升网络攻击性,对网络安全防护体系造成威胁与挑战。
2.2.3 人工智能法律制度缺失
人工智能与社会应用的不断融合,使得智能系统功能不断强大,人工智能的控制和监督问题也不断出现。当前智能医疗技术已趋于成熟,但现实中推广阻力重重。表面看来是隐私泄露以及使用不合法等原因制约了人工智能在医学中的应用发展,但究其最主要原因还在于人工智能法律制度的空白。缺少了法律制度的规范和保障,人工智能与社会各行业的深度融合也只能浮在空中。有学者研究指出,人工智能系统应用带来的风险可能会被证实法律体系难以应对的[6]。一般来说,法律法规监管分为事前监管和事后监管。智能产品的研发具有不透明性、不明确性,这使得传统产品的监管方法,在处理人工智能应用的风险时产生严重不足,导致事前监管会困难重重。人工智能自主性引发风险的可预见性和可控性的难度较高,也经常使得事后监管起不到效果。
3 社会稳定视角下的人工智能风险防范路径
人工智能研发设计的目标在于将智能化的技术应用于社会生产和生活中,在造福社会公众的同时,促进各行业、领域的创新升级。友好人工智能概念的提出者尤德科夫斯基指出:人工智能系统的设计开发应该是对人类有益且无害的,如果人工智能是以牺牲社会利益为代价的话,那么它就不应由于设计者的私利而在社会中应用[7]。面对人工智能对社会稳定造成的种种挑战,需要构建风险防范体系来保障人工智能朝有利于人类社会的方向发展。 3.1 人工智能的风险防范
3.1.1 技术层面的风险风范
技术层面的风险挑战主要是人工智能的研发方式。因为智能系统的设计不局限与特定时间地点,同时系统开发经常处于不对外公开的状态。致使危险人工智能的设计处于无监督意识状态,常出现产品安全、算法偏见、法律及伦理道德等的安全问题。其中危险程度和防范难度最高的当属恶意人工智能,对于这种通过人为制造的恶意人工智能,可以通过研发过程中的约束机制和伦理道德防范培训,来促使研发过程中的规范性,从而发展安全有益的人工智能。
一方面在智能应用的研发过程中,采取有力约束机制。必须对设计的有效性、安全性和可控性等进行反复验证,避免技术带来的负面影响,保证产品的可解释性和安全投入使用。另一方面,建立完善、系统的伦理道德培训机制,促进研发人员树立良好的伦理道德价值观念。人工智能伦理道德培训体系主要包括:责任、权利、公平性等,由人工智能研发专家、心理学、社会哲学等多学科专家同参与制订,经过不断完善修改最终形成一套完善的培训体系。高校相关专业(人工智能、计算科学等计算机相关专业)将伦理道德课程引入专业必修,从大学期间加强未来技术人员的伦理道德素养。
3.1.2 数据层面的风险防范
人工智能数据层面的风险防范主要靠国家层面的数据治理和监管,通过相关法律法规来规范智能应用产生数据的获取范围。数据层面的人工智能应用防范需要从数据安全和算法安全制定应对策略。
关于数据安全方面的风险防范主要通过立法来保证数据的安全使用,从法律政策上规范智能设备数据的安全运用。同时,加强数据安全监管和增强管理人员的安全意识。建立人工智能数据监管机构,协调人工智能数据研发、软硬件设备、数据使用共同响应,在不断推进人工智能技术创新发展的同时,保障智能数据的安全使用;增强智能系统管理人员安全意识,定时后台巡查数据运行状况,做到能够快速灵活的应对未知威胁,从而降低数据安全风险发生事件。
算法安全风险防范主要从数据全面性和算法可解释性加强防范。智能操作的前提是对数据的训练,保证训练数据集的全面、实时和广泛性是消除算法偏见和歧视,确保算法安全的前提。其次,确保算法的可解释性可消除人工智能决策的不可控性。人工智能監管部门对智能算法进行审查备案,利用最新测试技术审核算法的各种概念和权重,打破黑盒操作的不可解释性,促使算法向透明性和可解释性方向发展,及时发现和消除算法实施中的歧视和偏见。
3.1.3 社会关系层面的应用防范
人工智能发展在社会层面主要是面临技术失控风险。短期内取决于可预见性风险的控制程度,长期风险存在于智能设备的自动化程度,超人工智能拥有等同甚至高于人类的自主能力,以现有认知能力还难以预测和判断。基于此社会层面的应用风险防范主要从风险研究、法律规范、社会监管等方面为人工智能的可预期发展提供安全指导。
加大人工智能安全风险研究构筑安全防控体系。从国家层面组织人工智能科研机构,专门研究人工智能在社会应用中的风险及防范,研究成果为法律政策、技术监管提供有效指导。针对研究发现的安全风险,不断建设和完善人工智能安全防控体系,做到在社会生产和公众生活中利用好人工智能技术,推进智能技术安全可靠的发展。
加快人工智能应用立法。人工智能技术的不断发展必然引发社会生产关系和社会结构行为的不断变化,容易引发不可预知的安全风险,必须通过法律制度来规范智能主体的异常变化。人工智能发展的现阶段,法律研究及问题主要聚焦于智能主体的法律地位、智能行为的法律责任等。技术更新迭代速度飞快,人工智能立法研究也应该具有前瞻性,这样才能使不断出现的新问题有法可依有章可循。
加强人工智能的社会监管。针对研究可能面临的人工智能安全问题,组织与智能产品生产服务无直接关联的社会机构,对智能产品和服务进行社会监管。一方面对智能产品或服务做市场应用前的测试和审查;另一方面对存在安全缺陷的产品和服务依法上报处理,积极运用人工智能技术提高安全监管能力,做到对智能产品和服务全方位、立体化监管。
3.2 基于社会稳定层面的人工智能风险防范体系构建
随着社会发展与人工智能的不断融合,智能技术在完成创新发展,提高社会效益的同时,也对社会稳定提出了新的挑战。结合人工智能应用构建了人工智能风险防范体系,具体如图1所示。
在技术研发阶段,主要是人工智能工程技术人员对智能系统的设计、研发和实施。需要人工智能技术研发者和智能风险评估专家相互配合,在智能系统的开发前期杜绝人为安全隐患,将智能系统可能存在的安全问题降到最低。
社会应用阶段,以具体的智能应用为基础,将智能应用分为短期、中期和长期3个阶段。在短期阶段,人工智能的应用风险主要是智能系统的可靠性和可解释性,主要表现为数据训练集的全面性以及预测结果的准确度,同时智能系统运算过程必须具有可解释性,避免黑盒操作带来的不可预知风险。中期阶段,智能系统可通过更有效的算法进行数据的训练,在现实应用中可得到更精确的运算结果。此阶段的风险防范主要是防范人类智能对人工智能的过度依赖,人类应通过技术、服务和管理的相互配合来掌握智能应用的主动权,同时预防因过度依赖智能系统导致的人类大脑进化中的退化。长期阶段,人工智能应用的风险来自于智能系统的自主干预性。当智能应用拥有自主意识后,怎样安全有效的完成既定目标,以及智能物和智能物之间的安全联系,都是需要进一步研究的课题。
基于人工智能社会应用各阶段的风险点,建议采用多主体多层次的风险防范监管模式。从人工智能技术的研发方面,实施多层次的备案监管制度。一般研发由地方监管部门备案登记,并实施监管,重大研发项目应在国家专门部门备案并监管。从人工智能的社会应用方面,实施由智能应用主管部门的自律与监督制度是人工智能在诸如金融、制造、医疗等重要领域的有效工具。同时,人工智能技术和社会应用迭代速度之快,在防范智能系统性风险的发生的同时,还要密切关注智能技术的社会应用风险,将自身风险和滥用风险都降到最低范围。 风险治理阶段主要包括:风险的评估、责任的判定、惩罚与补偿等,以及风险发生过后的法律制度完善和实施保障。同时,风险循环反馈保障机制贯穿于研发、应用和治理三部分,为风险防控体系提供实时动态数据更新,有效保障人工智能技术的安全应用。
4 结语
人工智能的迅速崛起对社会稳定发展提出了新的挑战,有效解决发展与挑战之间的关系除了加强技术和社会关系的防范外,还要加快人工智能领域的立法以及全球合作。当前我国人工智能除了技术与应用方面的发展,在网络安全和数据应用方面也有涉及,而《中华人民共和国网络安全法》的颁布,在法律层面对个人信息安全进行保护。2020年8月,国家新一代人工智能体系建设指南颁布,旨在发展负责任的人工智能。虽然人工智能的发展已备受国家层面的关注,但是人工智能的法律保障体系是缺失的,世界各国对人工智能的立法也都还处于探讨时期,没有成型的法律法规可供参考。
目前我国处在人工智能技术的领先国家行列,智能技术与社会应用在跨界融合推动社会发展的同时,也面临史无前例的社会安全隐患,这也恰恰是最大的時机。在人工智能的社会应用中及时发现和解决存在的安全隐患,使智能技术朝着友好人工智能方向发展,应成为全球人工智能发展的共识。
参考文献
[1] 王君,张于喆,张义博.人工智能等新技术进步影响就业的机理与对策[J].宏观经济研究,2017(10):169-181.
[2] 张耘堂.基于“人工智能+”经济模式创新的分析[J].自然辩证法研究,2019,35(9):61-66.
[3] 刘涛雄,刘骏.人工智能、机器人与经济发展研究进展综述[J].经济社会体制比较,2018(6):172-178.
[4] G.Graetz and G.Michaels,Robots at Work.The Impact on Productivity and Jobs,CentrePiece-The Magazine for Economic Performance,vol.447,Centre for Economic Performance, LSE[Z].2015.
[5] 李新瑜,张永庆.基于产业链视角的人工智能风险分析及其防范[J].人文杂志,2020(4):47-57.
[6] 陈洪兵,陈禹衡.刑法领域的新挑战:人工智能的算法偏见[J].广西大学学报:哲学社会科学版,2019(5): 85-93.
[7] 李政涛.依托人工智能开展大学生就业观教育改革的策略研究[J].科技资讯,2020,18(2):142-144.
[8] 马长山.人工智能的社会风险及其法律规制[J].法律科学,2018(6):47-55.
[9] 陈伟光,袁静.人工智能全球治理:基于治理主体、结构和机制的分析[J].国际观察,2018(4):23-27.