论文部分内容阅读
【摘要】人工智能时代赋予数据以权威的同时,也削弱了人的自由。自主性的消逝带来不确定性的同时,更加剧了彼此的隔阂。数据主义视域下一切皆可量化,强调最大限度加快数据流动与数据连接,由此产生了过度连接引发的隐私困境和信任危机。若要保障个性隐私,重建信任,必须搭建系统化框架,从完善法律体系、强化责任约束以及增强用户智媒素养方面予以保障。
【关键词】人工智能 大数据 隐私危机 信任重建
【中图分类号】G230 【文献标识码】A 【文章编号】1003-6687(2021)8-101-06
【DOI】 10.13786/j.cnki.cn14-1066/g2.2021.8.015
1956年,美国达特茅斯会议首次提出人工智能距今已有60多年,如今迎来机器深度学习的第三次浪潮。这种“类人化”的极致走向离不开算法、算据、算力三要素的支持。其中,算法是解决问题的清晰指令,也是人工智能的本质与核心;算据是算法运行的基础,即海量、高速、多样的大数据资源;算力依托于云计算处理系统,对于算法效率的提升具有决定性意义。针对算法、算力和数据的统一调度与管理,是大数据时代的题中之义,也是人工智能时代的重要基石。
实际上,以人工智能为原动力的媒介生态正趋于智媒化,并构成了以数据化和智能化为主的核心逻辑。人工智能对于传统秩序的颠覆已延伸至常规以及非常规的一切层面,其中由大数据引发的隐私泄露与信任危机尤其引人深思。法兰克福学派学者埃里希·弗洛姆曾把大众媒介对于文化的支配命名为“匿名权威”,将人们的“臣服”看作“机械趋同”。[1]人工智能时代下的数据权威更是有过之而无不及,人的一切表现和活动均被数字化,数据代替细胞组成个体的基本单元。基于此,本研究着重分析数据主义视域下隐私困境与信任危机产生的缘由,试图探索其背后蕴含的深层矛盾,以期提出一些薄见。
一、数据主义视域:“万物皆可量化”
大数据正在引导一场空前的革命,它强调一切均可被量化,数据主义被推崇为新的价值观。站在当下看过去,数据的前身是人们再熟悉不过的一种信息。根据克劳德·香农的信息论,“‘信息’被定义为一种有别于物质—能源的东西,在需要做出决策的时候,有一个选择存在于一批选择之中”。[2]拥有的信息越多,选择的不确定性便会减少,反之,不确定性增强。在新一轮大数据革命的驱动下,数据的指数级增长,不仅带来了新的行为秩序,还催生出新的生产要素,即数据已经成为一种资源,成为政治、资本和社会权力较量的筹码。
1. 信息代理权的让渡与征用
在信息被代理之前,人对自身的数据具有绝对的掌控权。在马歇尔·麦克卢汉描绘的“部落化时代”,人与人之间靠口耳相传,人脑记忆是存储数据的唯一手段。可以说,在狭窄的部落空间里,数据的产出与生活范围成正比,数据输入与输出的时间、方式与内容由人决定。随着生产力的发展,社会交往空间扩大,人们对于信息的需求激增,而囿于个体认知经验的匮乏,不得不集体寻找一个中介代替自己去感知世界,这时媒体应运而生,成为描绘“外部世界的图像”的代理人。纷繁复杂的社会万象都被吸入媒体的“口袋”,“无名者”也可被聚光灯关注,获得较高的知名度和社会地位,在“成名”过程中,个人数据一并被记录,生成可留存查看的凭证。[3]传统媒体呼风唤雨的历史见证了媒介的强大力量,绝对的代理权威使其可以有选择地呈现、重新结构化现实环境,自由裁量有关环境和人的信息。
进入人工智能时代,随着数据的加宽、加细,传统的媒介奇观在大数据记录下不仅得以重现,甚至是更深层次的升级与放大。信息代理权被算法征用,传统的人工把关权让渡于机器系统,在新兴代理人描绘的图景中,人不仅在变成数据,也在被数据奴役。智媒化应用突破了媒介的边界,物理意义上的互联互通继续被“窥视”,人的生理、心理数据也可以通过传感器、智能手环等设备被获取。人被客体化,而由人生成的数据却“日益去客体化,隐匿主体性,渗透进日常生活的一切”,[4]成为尼尔·波兹曼笔下“媒介即隐喻”的现实主角,以“一种隐蔽但有力的暗示来定义现实世界”。[5]
2. 流动时空的数据控制与争夺
移动互联网的普及以及物联网的应用不仅加快了日常生活从线下到线上的转移,还培育了受众流动性和移动性的行为特点,由此积聚了更多碎片化、非结构化的数据。数据的发生场域越来越随机,这意味着数据的采集随时空变动而转移,数据控制与争夺的本质变为对用户的洞察—内容的精准分发—场景的适配这一流程的全面洞悉与把握。前Web时代到Web2.0时代,完成了机器与机器、人与内容、人与人的连接,如今进入Web3.0时代,即“以场景、细分、垂直和个性化服务为特征的场景时代,它解决的重点是人与人、人与内容和人与环境的连接与匹配的问题”。[6]个性化的场景数据如用户实时状态、生活惯性等开始成为各领域瞄准的新兴利益点。
当数据成为一种广泛但有限的资源时,不同量级的权力体系的争夺就开始了。以色列学者尤瓦尔·赫拉利在《未来简史:从智人到智神》中提道:“经济机制就是收集关于欲望和能力的数据,再转化为决策。”[7](334)用户的既往经验、现时喜好、社交数据都会被一一记录,成为商家精准营销的依据。准确来讲,消费者才是商家对于用户的定位,完成消费才是他们的最终目标。然而,作为数据的所有者——人类却并不知道自己的信息已暴露在公共場合之中。因此,数据的天平两端是倾斜的,数据的占有是脱离了主体身份的。其背后的数据霸权逻辑表明“掌控某种技术的人,其权势将不断累积,且必然形成某种同盟关系,并与未能掌握这门技术所带来的专业知识的人形成对立关系”。[8](7)由此形成的落差只会加剧马太效应在大数据时代的演化,造成的结果是,数据控制与争夺不只是单方的胜利,还会激发更深的数据鸿沟矛盾。
二、过度连接的隐忧:隐私陷阱
互联网的发展史便是连接的演进史,以连接一切为核心的互联网法则在人工智能时代下愈演愈烈,同时也成为数据主义的内在逻辑。尤瓦尔·赫拉利曾针对这种逻辑提出两条律令,第一条律令是数据主义者要连接越来越多的媒介,产生和使用越来越多的信息,让数据流最大化;第二条律令是要把一切连接到系统,就连那些不想连入的异端也不能例外。[7](345)由此,数据主义追求充分的数据流动以及数据连接,实现这二者的前提便是允许数据自由。然而,数据开放所蕴含的“至善”是否可以造福全社会?显然,答案并没有如此轻松。过度连接造成的隐忧——隐私泄露已逐渐发展成为社会性问题,其与“自由”展开的漫长较量已经让人们开始反思自身主体权利到底何去何从。 1. 隐私情境:从全景监狱到共景监狱
关于隐私权概念的诞生,要追溯到19世纪末期。波士顿的两名律师萨缪尔·沃伦和路易斯·布兰迪斯在《隐私权》一文中提出,隐私权是人们享受独处的权利。[9]相较于起初对于空间隐私的强调,人工智能时代下的隐私保护对象不仅涉及有关人的一切信息,还包括人对于信息自主决断的权利。传统的隐私权对应的是固定的住所,而现代的隐私权还叠加了线上虚拟空间,且现实场景的流动性也比以往更强了。人们可以借媒介情境论解释这一现象,“电子媒介通过改变社会场景的界限,不仅简单地使我们更迅速更详细地接近事件或行为,它们还给了我们新事件和新行为”。[10]隐私本身是受保护的“后台”行为,却因为现代受众的“永久链接”而逐渐“前置”,私人领域“前台化”的趋势,使公私界限逐渐模糊,用户隐私也在被动获取与主动曝光之间一览无遗。人工智能的到来更新了隐私情境的内涵与外延,也更新了信息数据的统治方式,即从“全景监狱”时期的“被监视”到如今“共景监狱”时期的“互相監视”。
“全景监狱”由英国哲学家杰里米·边沁于1785年提出的“圆形监狱”发展而来,米歇尔·福柯在《规训与惩罚》一书中将其解释为“一种在空间中安置肉体、根据相互关系分布人员、按等级体系组织人员、安排权力的中心点和渠道、确定权力干预的手段和方式的样板”。[11]很明显,这是一种不对称的监视体系,站在瞭望塔楼上的监视者可以随时环视身处每一个囚室的犯人,却不被他们看到,犯人之间也不允许交流。马克·波斯特在福柯的语境下出发,提出“超级全景监狱”这一概念,即“通过数据库对私人与公共空间界限的消解,实现对人的全面的无时无刻的监视和规训”。[12]可以说,这是“全景监狱”在电子时代的升级与翻版。然而,二者都过于关注强权的一方,忽略了被监视者的动态变化。或许,“共景监狱”更适合概括当下观看与被观看同时进行的特点,它“是一种围观结构,是众人对个体展开的凝视和控制”,[13]每个人都可能成为凝视的一方,也可能成为被凝视的一方,自我数据也可能被同样普通的他者泄露,隐私侵犯的风险与不确定性便不言而喻。
2. 路径依赖:自我评估与习得性无助
路径依赖最初指技术演进过程中新技术的惯性力量所形成的排他性。经济学家道格拉斯·诺斯将这一概念挪移至制度变迁中,证实了制度演化同样存在自我强化的现象,并且强调“人们过去做出的选择决定了他们现在可能的选择”。[14]相应地,算法的日益渗透,加之无形中人们对算法的接纳,也形成了一种算法依赖,人们出于某种社会或者心理需求,接受了算法的服务,一旦服务契合原始预期,人们对于算法的依赖就会由偶然转为常态。正是因为媒介经验可能会触发后续的媒介接触行为,所以,即使人们对于算法推荐背后的机理不清楚,也会为继续享受算法的便利而主动“交出”自己的信息。
那么,人们对于数据隐私的态度究竟是什么?一方面,人们感觉自己正在时时刻刻被窥视,而另一方面,又因无法脱离算法给予的便捷选择无动于衷。这种隐私关注态度与隐私保护行为的矛盾现象被定义为“隐私悖论”。[15]其实,这种不一致具有强烈的心理基础,除了媒介依赖,用户的自我感受也是重要的影响因素。隐私分为一般性隐私和重要隐私,若根据相关性以及重要性划分隐私等级,那么与人们越相关、对人们越重要的隐私信息则越会被优先关注,但每个人的隐私价值排序都是相对的、主观的,因此,才会出现面临同一类隐私时表现出严肃——无谓的两端取向。与此同时,这种心理机制还存在于自我效能感的评估中,即“个体对自己具有组织和执行达到特定成就的能力的信念”。[16]当人们感觉自己可以很好地控制信息时,便会努力寻找相应的保护策略,但反过来也会因为具备及时挽救损失的能力,而选择继续在线披露自我数据。与这种盲目乐观相对应,消极放任也是一股不容忽视的现实力量。通过多次隐私保护尝试,却无法抗衡算法的渗透,随之产生的习得性无助在一定程度上可能导致用户漠视隐私的一再泄露。
基于以上探讨可以发现,隐私问题并不是简单的权利施予问题,还涉及权力的流动、心理的变化等多重制约因素。因此,再审视隐私侵犯不应该站在道德高地狭义地将责任归结为平台、资本方的刻意谋划,也许人们自己正在与其他权力主体“合谋”参与自我与他人隐私的消费。
三、隐私风险的连带效应:信任危机
在依靠连接运转,又追求连接最大化的大数据时代,信息自由开始优于人的自由,争取数据开源而非保障隐私权成为首选项,数据权力与数据权利的矛盾已经产生连带效应,威胁社会信任的培育和构建。信任理论由社会学家齐美尔开创,其认为“信赖是在社会之内的最重要的综合力量之一”。[17]随后,尼克拉斯·卢曼、安东尼·吉登斯等学者在此基础上做了补充,进一步丰富了信任理论的内涵。卢曼认为信任“构成了复杂性简化的比较有效的形式”,[18](10)由此弥补了人类有限的理性和认知经验,这在吉登斯看来,主要是源于个体的“本体性安全”需求,这也是其将信任界定为个人“对一个人或一个系统之可依赖性所持有的信心”的原因。[19]“信任关系中内含一定的风险,信任方的感知风险调节着信任与风险承担之间的关系。”[20]数据隐私所牵扯出的风险感知同样会影响人们对于平台的信任、制度的信任、人际信任以及社会信任。
1. 秩序失调下的风险表征
现代化的发展节奏将传统秩序从现代性中抽离,引发了传统社会的断裂,造就了原子化的个体,人们脱离“熟人社会”走向“陌生群体”,失去了原来赖以为继的价值标准,变得无所适从。一方面,人们不得不根据社会分工规范运转,越来越趋向于独立化生存;另一方面,人们也渴求与他人建立更广泛的关联,弥补内心的缺失,这种寄托于现代性焦虑的矛盾心理在社会改革期尤为明显。此外,资本市场的复杂多变以及技术撬动的生态变革也在加剧社会的不稳定性,如此超重的社会现实,必然会影响人与人之间的信任关系,表露出越来越多的风险。反过来,当风险积攒到一定程度时,也会折损信任在社会中的价值。 吉登斯将信任划分为两种基本类型,即“人对人的信任”与“人对系统的信任”。[21]由于时空的快速更迭和分离,如今的信任体系逐渐从传统的人格信任过渡到抽象的系统信任,但这种信任“不是信任系统本身而是信任系统的有效运转”。[21]因此,当提及隐私风险时,更多指向了平台对于用户数据的使用是否正当合法,商家能否保护好消费者的隐私权不受侵犯,以及哪怕隐私泄露,他们会采取怎样的办法弥补过失,防止二次风险。平台是制度的具象化代言人,对于平台的态度会决定用户如何看待平台背后的技术系统,而技术变量作为整体社会系统的一分子(见图1),前者的荣辱也定会牵涉后者的生死存亡,一旦发生断裂,社会就会陷入信任崩塌的窘境。
2. 关系中介下的信任闭环
重返信任这一概念的原始界定,正如卢曼所言,“在任何情况下,信任都是一种社会关系,社会关系本身从属于特殊的规则系统”。[18](6-7)上文提到,人格信任与系统信任的权重虽发生了变化,但人是社会性动物,人际关系的磨合永远是一个恒常命题,且对于系统的信任,离不开人的操作与维持。因此,有必要对于隐私语境下人际信任的调节作用予以分析。如果说平台—系统—社会这一循環是内嵌式的连接模式,那么系统—人际—社会便是链条式、环环相扣式的信任图式(见图2)。系统信任对于人际信任具有正向的促进作用,而人际信任也会推动社会信任。
其实,人们对于隐私的担忧不仅在于单条信息的泄露,还在于信息整合后被一针见血地看穿的心理恐惧,这也就是数据主义成为一种意识形态后的可怕之处。数据的价值并不在于量大,而是将有效数据关联起来或者努力挖掘数据背后的深层含义。当数据被多维度记录时,这种价值就产生了,除个体多元搜索组成的数据库可以提供这种价值,广泛的社交数据才是更可靠的捷径,算法便是寄生于社交媒体完成这一使命的。有学者指出“算法即媒介”,因为其“充当着认知塑造者、关系建构者、社会黏合剂的角色”。这种力量源自“它的联结属性对价值关系的建构、匹配与调适”。[4]算法代表的正是吉登斯所提及的符号系统与专家系统的结合,信任算法等同于信任抽象的制度,“正是制度的这种暗含的规范意义以及我们假定它对于其他人所具有的道德合理性使我信任那些处于相同制度中的人”。[22]因此,当人们接受算法时,也接受了算法为其匹配好的关系结构,以及组成这种关系的人。
那么,人际信任又如何具体促进社会信任呢?在以往有限的时空里,人与人之间的信任是自在性的,人际信任与社会信任呈正比例变动,然而现代社会中,人际信任失去了永恒的支撑动力,变得模糊不清。因此,吉登斯建议采取积极或主动的信任,因为“从亲密的私人关系到全球化的交互系统,主动信任在各种情境中都处于新式的社会团结的本源地位”。[23]这种新的信任“比以前的信任关系形式更加具有相机性,更受条件的限制”,并且“要求增加社会关系的透明度,但也积极地提高这种透明度”。[24]按照这一思路,人际信任仍可促进社会的整体信任,只需保持对他人以及系统的开放态度,主动建立多样的信任关系。
四、兼顾个性隐私与公共信任的破局之道
数据自由与隐私保障并非不可调和,但也不是一蹴而就的,其实质涉及个体有限理性与无限感性、个体权益与公共权益、隐私权利与数据权力等多组矛盾的交叉汇合,而每一对关系都从漫长的历史中走来。目前较为重要的是,如何从新的背景下理解其中的冲突与争议。作为同样古老的话题,隐私与信任都是人类生存的重要支柱,前者保证私人领域的安全,后者负责内心领域的稳定。笔者认为,可以在完善法律体系、强化责任约束以及增强用户智媒素养这三个方面提供一些可操作的建议,以供借鉴。
1. 完善法律体系
麦克卢汉曾断言:“一旦新技术进入一种社会环境,它就不会停止在这一环境中渗透,除非它在每一种制度中都达到了饱和。”[25]事实表明,人工智能与大数据为达到这种饱和做出了巨大努力,若现实在一定程度上被改变,社会也应当予以回应,自上而下地做出调整。2017年,国务院发布《新一代人工智能发展规划》,正式将人工智能纳入国家战略层面,针对智能伦理的顶层设计就此铺开。纵观世界其他国家在这方面的做法,虽有可圈可点之处,但目前仍处于初级阶段,还需要继续探索完善。由于人工智能并不只是一个国家和民族的课题,国际合作也必不可少,如虚心借鉴成功经验,再结合本国国情具体落实;积极参与国际人工智能伦理规则的建立,共同维护全球网络安全。
2. 强化责任约束
法律红线的划定只走完了第一步,各大平台和互联网企业需要在此基础上完成第二步,即增强社会责任感,实现自我约束。波兹曼曾将技术垄断文明下的计算机代理定义为“代理转移”,在这个过程中,“人们将某一事件结果的责任从自身转移到更为抽象的代理身上”。[8](115)现如今,各大资讯平台直接越过传统的媒体机构,成为用户新的渠道落点,从某种程度上行使着媒体的权利,却可以理直气壮地将问题归咎于无辜的算法,代理权的交换不仅丧失了人对技术的控制权,也在泯灭着人类内心的道德底线。权利与义务从来都是成对出现的,这也在提醒一些平台何可为,何不可为。
首先,应公开算法原理,保证算法透明、可追溯。今日头条于2018年公布算法模型的设计维度与策略等问题的举措,便是一个很好的开始,也是培育平台信任的绝佳策略。其次,迭代优化算法,追求算法精益求精。算法并非中立,其中蕴含的价值偏见、种族性别歧视以及身份预设都影响了信息的平衡性与公共性。算法具有自我进化的能力,因此,应尽可能少地掺杂人为因素。最后,坚持用户至上,让算法越来越人性化。当用户首次注册登录时,应尊重用户的知情权,第一时间推送并解释说明平台的使用条款与隐私政策,给用户留有自主选择的空间;建立可追溯数据库系统,让用户有迹可循;建立举报监督机制,让用户有规可用。
3. 增强智媒素养
若硬性监督与软性约束这两步已经做好了铺垫,那么用户的智媒素养是十分关键的最后一步。人工智能时代下,媒介边界不断消弭,媒介素养也应做出相应扩张,增添智媒素养或者算法素养。一方面,有意识地积极了解智媒的操作逻辑和运作模式,以便预防个人隐私泄露,增强算法聚合后的信息把控能力。另一方面,学会辨别虚假信息,与多信源求证比对,谨慎发表意见,保持积极的中立。由于隐私曝光以连接过度为前提,因此反连接也应成为新的媒介素养。“反连接并不是无条件切断所有连接、封闭个体,而是在一定的情境下断开那些可能对个体产生过分压力与负担的连接链条。”[26]因此,反连接既是一种要求,也是一种权利,重点在于个体如何选择。当然,在以连接共享为主题的大数据时代,完全封闭几乎是不可能的,也是治标不治本的,重要的是如何看待影响连接的种种质疑。实际上,当社会大多数人选择对他人开放而非警惕时,质疑也就消失了,信任也就建立起来了。只是,在还未达成社会共识之前,这种开放也只能是有限度的开放,有所保留的欢迎。 结语
世界正处于百年未有之大变局,人工智能时代的到来,既是一个缩影,也是一个有分量的注脚,虽然“未来已来”,人们仍要直面技术超重带来的种种社会失序。也许万物互联的速度无法阻止,却可以调整连接的方向。当一个人被视为一条条零散孤立的数据,甚至是一种工具时,隐于内心的不安就产生了,信任纽带的断裂也就不远了。其实,智能时代激发的种种矛盾,远未超出人类自我处理的范畴,只有当人自身看重自我主体性,关心自己的同胞时,才能超越现有的困境,重塑以人为中心的社会秩序。
参考文献:
[1] 埃里希·弗罗姆. 逃避自由[M]. 刘林海,译. 北京:国际文化出版公司,2000:118-132.
[2] 罗杰斯. 传播学史:一种传记式的方法[M]. 殷晓蓉,译. 上海:上海译文出版社,2005:426.
[3] “更懂你”是什么感觉,答案在这里[EB/OL].[2018-03-07].新华网,http://www.xinhuanet.com/politics/2018-03/07/c_129825030.htm.
[4] 喻国明,耿晓梦. 算法即媒介:算法范式对媒介逻辑的重构[J]. 编辑之友,2020(7):45-51.
[5] 尼尔·波兹曼. 娱乐至死:童年的消逝[M]. 章艳,吴燕莛,译. 桂林:广西师范大学出版社,2009:12.
[6] 喻国明,郭超凯. 轻应用:“互联网发展下半场”消费场景的重构——试论小程序的生成逻辑与操作关键[J]. 青年记者,2017(25):50-54.
[7] 尤瓦尔·赫拉利. 未来简史:从智人到智神[M]. 林俊宏,译. 北京:中信出版集团,2017.
[8] 尼尔·波兹曼. 技术垄断:文明向技术投降[M]. 蔡金栋,梁薇,译. 北京:机械工业出版社,2013.
[9] Samuel D Warren, Louis D Brandeis.The Right to Privacy [J].Harv. L. Rev,1890(4):205.
[10] 约书亚·梅罗维茨. 消失的地域:电子媒介对社会行为的影响[M].肖志军,译. 北京:清华大学出版社,2002:39.
[11] 米歇尔·福柯. 规训与惩罚[M]. 刘北成,杨远婴,译. 北京:生活·读书·新知三联书店,2003:231.
[12] 张金鹏. 超级全景监狱:信息方式下的权力技术——波斯特论信息方式下的统治模式[J]. 南京社会科學,2007(8):40-45.
[13] 喻国明. 媒体变革:从“全景监狱”到“共景监狱”[J]. 人民论坛,2009(15):21.
[14] 道·诺斯. 制度变迁理论纲要[J]. 改革,1995(3):52-56.
[15] 孙保营,唐晶晶. 移动社交时代“隐私悖论”的困局及破解[J]. 新闻爱好者,2017(7):13-18.
[16] Bandura A, Freeman·W. H, Lightsey R. Self-Efficacy: The Exercise of Control[J]. Journal of Cognitive Psychotherapy,1999(13):158-166.
[17] 西美尔. 社会学:关于社会化形式的研究[M]. 林荣远,译. 北京:华夏出版社,2002:251.
[18] 尼克拉斯·卢曼. 信任:一个社会复杂性的简化机制[M]. 瞿铁鹏,李强,译. 上海:上海人民出版社,2005.
[19] 安东尼·吉登斯. 现代性的后果[M]. 田禾,译. 南京:译林出版社,2000:30.
[20] 赵付春. 大数据环境下用户隐私保护和信任构建[J].探索与争鸣,2017(12):97-100.
[21] 董才生. 论吉登斯的信任理论[J]. 学习与探索,2010(5):64-67.
[22] 马克·E.沃伦. 民主与信任[M]. 吴辉,译. 北京:华夏出版社,2004:65.
[23] 乌尔里希·贝克,安东尼·吉登斯,斯科特·拉什. 自反性现代化:现代社会秩序中的政治、传统与美学[M]. 赵文书,译. 北京:商务印书馆,2001:237.
[24] 安东尼·吉登斯. 超越左与右——激进政治的未来[M]. 李惠斌,杨雪冬,译. 北京:社会科学文献出版社,2000:97.
[25] 马歇尔·麦克卢汉. 理解媒介:论人的延伸[M]. 何道宽,译. 北京:商务印书馆,2000:226.
[26] 彭兰. 连接与反连接:互联网法则的摇摆[J]. 国际新闻界,2019(2):20-37.
【关键词】人工智能 大数据 隐私危机 信任重建
【中图分类号】G230 【文献标识码】A 【文章编号】1003-6687(2021)8-101-06
【DOI】 10.13786/j.cnki.cn14-1066/g2.2021.8.015
1956年,美国达特茅斯会议首次提出人工智能距今已有60多年,如今迎来机器深度学习的第三次浪潮。这种“类人化”的极致走向离不开算法、算据、算力三要素的支持。其中,算法是解决问题的清晰指令,也是人工智能的本质与核心;算据是算法运行的基础,即海量、高速、多样的大数据资源;算力依托于云计算处理系统,对于算法效率的提升具有决定性意义。针对算法、算力和数据的统一调度与管理,是大数据时代的题中之义,也是人工智能时代的重要基石。
实际上,以人工智能为原动力的媒介生态正趋于智媒化,并构成了以数据化和智能化为主的核心逻辑。人工智能对于传统秩序的颠覆已延伸至常规以及非常规的一切层面,其中由大数据引发的隐私泄露与信任危机尤其引人深思。法兰克福学派学者埃里希·弗洛姆曾把大众媒介对于文化的支配命名为“匿名权威”,将人们的“臣服”看作“机械趋同”。[1]人工智能时代下的数据权威更是有过之而无不及,人的一切表现和活动均被数字化,数据代替细胞组成个体的基本单元。基于此,本研究着重分析数据主义视域下隐私困境与信任危机产生的缘由,试图探索其背后蕴含的深层矛盾,以期提出一些薄见。
一、数据主义视域:“万物皆可量化”
大数据正在引导一场空前的革命,它强调一切均可被量化,数据主义被推崇为新的价值观。站在当下看过去,数据的前身是人们再熟悉不过的一种信息。根据克劳德·香农的信息论,“‘信息’被定义为一种有别于物质—能源的东西,在需要做出决策的时候,有一个选择存在于一批选择之中”。[2]拥有的信息越多,选择的不确定性便会减少,反之,不确定性增强。在新一轮大数据革命的驱动下,数据的指数级增长,不仅带来了新的行为秩序,还催生出新的生产要素,即数据已经成为一种资源,成为政治、资本和社会权力较量的筹码。
1. 信息代理权的让渡与征用
在信息被代理之前,人对自身的数据具有绝对的掌控权。在马歇尔·麦克卢汉描绘的“部落化时代”,人与人之间靠口耳相传,人脑记忆是存储数据的唯一手段。可以说,在狭窄的部落空间里,数据的产出与生活范围成正比,数据输入与输出的时间、方式与内容由人决定。随着生产力的发展,社会交往空间扩大,人们对于信息的需求激增,而囿于个体认知经验的匮乏,不得不集体寻找一个中介代替自己去感知世界,这时媒体应运而生,成为描绘“外部世界的图像”的代理人。纷繁复杂的社会万象都被吸入媒体的“口袋”,“无名者”也可被聚光灯关注,获得较高的知名度和社会地位,在“成名”过程中,个人数据一并被记录,生成可留存查看的凭证。[3]传统媒体呼风唤雨的历史见证了媒介的强大力量,绝对的代理权威使其可以有选择地呈现、重新结构化现实环境,自由裁量有关环境和人的信息。
进入人工智能时代,随着数据的加宽、加细,传统的媒介奇观在大数据记录下不仅得以重现,甚至是更深层次的升级与放大。信息代理权被算法征用,传统的人工把关权让渡于机器系统,在新兴代理人描绘的图景中,人不仅在变成数据,也在被数据奴役。智媒化应用突破了媒介的边界,物理意义上的互联互通继续被“窥视”,人的生理、心理数据也可以通过传感器、智能手环等设备被获取。人被客体化,而由人生成的数据却“日益去客体化,隐匿主体性,渗透进日常生活的一切”,[4]成为尼尔·波兹曼笔下“媒介即隐喻”的现实主角,以“一种隐蔽但有力的暗示来定义现实世界”。[5]
2. 流动时空的数据控制与争夺
移动互联网的普及以及物联网的应用不仅加快了日常生活从线下到线上的转移,还培育了受众流动性和移动性的行为特点,由此积聚了更多碎片化、非结构化的数据。数据的发生场域越来越随机,这意味着数据的采集随时空变动而转移,数据控制与争夺的本质变为对用户的洞察—内容的精准分发—场景的适配这一流程的全面洞悉与把握。前Web时代到Web2.0时代,完成了机器与机器、人与内容、人与人的连接,如今进入Web3.0时代,即“以场景、细分、垂直和个性化服务为特征的场景时代,它解决的重点是人与人、人与内容和人与环境的连接与匹配的问题”。[6]个性化的场景数据如用户实时状态、生活惯性等开始成为各领域瞄准的新兴利益点。
当数据成为一种广泛但有限的资源时,不同量级的权力体系的争夺就开始了。以色列学者尤瓦尔·赫拉利在《未来简史:从智人到智神》中提道:“经济机制就是收集关于欲望和能力的数据,再转化为决策。”[7](334)用户的既往经验、现时喜好、社交数据都会被一一记录,成为商家精准营销的依据。准确来讲,消费者才是商家对于用户的定位,完成消费才是他们的最终目标。然而,作为数据的所有者——人类却并不知道自己的信息已暴露在公共場合之中。因此,数据的天平两端是倾斜的,数据的占有是脱离了主体身份的。其背后的数据霸权逻辑表明“掌控某种技术的人,其权势将不断累积,且必然形成某种同盟关系,并与未能掌握这门技术所带来的专业知识的人形成对立关系”。[8](7)由此形成的落差只会加剧马太效应在大数据时代的演化,造成的结果是,数据控制与争夺不只是单方的胜利,还会激发更深的数据鸿沟矛盾。
二、过度连接的隐忧:隐私陷阱
互联网的发展史便是连接的演进史,以连接一切为核心的互联网法则在人工智能时代下愈演愈烈,同时也成为数据主义的内在逻辑。尤瓦尔·赫拉利曾针对这种逻辑提出两条律令,第一条律令是数据主义者要连接越来越多的媒介,产生和使用越来越多的信息,让数据流最大化;第二条律令是要把一切连接到系统,就连那些不想连入的异端也不能例外。[7](345)由此,数据主义追求充分的数据流动以及数据连接,实现这二者的前提便是允许数据自由。然而,数据开放所蕴含的“至善”是否可以造福全社会?显然,答案并没有如此轻松。过度连接造成的隐忧——隐私泄露已逐渐发展成为社会性问题,其与“自由”展开的漫长较量已经让人们开始反思自身主体权利到底何去何从。 1. 隐私情境:从全景监狱到共景监狱
关于隐私权概念的诞生,要追溯到19世纪末期。波士顿的两名律师萨缪尔·沃伦和路易斯·布兰迪斯在《隐私权》一文中提出,隐私权是人们享受独处的权利。[9]相较于起初对于空间隐私的强调,人工智能时代下的隐私保护对象不仅涉及有关人的一切信息,还包括人对于信息自主决断的权利。传统的隐私权对应的是固定的住所,而现代的隐私权还叠加了线上虚拟空间,且现实场景的流动性也比以往更强了。人们可以借媒介情境论解释这一现象,“电子媒介通过改变社会场景的界限,不仅简单地使我们更迅速更详细地接近事件或行为,它们还给了我们新事件和新行为”。[10]隐私本身是受保护的“后台”行为,却因为现代受众的“永久链接”而逐渐“前置”,私人领域“前台化”的趋势,使公私界限逐渐模糊,用户隐私也在被动获取与主动曝光之间一览无遗。人工智能的到来更新了隐私情境的内涵与外延,也更新了信息数据的统治方式,即从“全景监狱”时期的“被监视”到如今“共景监狱”时期的“互相監视”。
“全景监狱”由英国哲学家杰里米·边沁于1785年提出的“圆形监狱”发展而来,米歇尔·福柯在《规训与惩罚》一书中将其解释为“一种在空间中安置肉体、根据相互关系分布人员、按等级体系组织人员、安排权力的中心点和渠道、确定权力干预的手段和方式的样板”。[11]很明显,这是一种不对称的监视体系,站在瞭望塔楼上的监视者可以随时环视身处每一个囚室的犯人,却不被他们看到,犯人之间也不允许交流。马克·波斯特在福柯的语境下出发,提出“超级全景监狱”这一概念,即“通过数据库对私人与公共空间界限的消解,实现对人的全面的无时无刻的监视和规训”。[12]可以说,这是“全景监狱”在电子时代的升级与翻版。然而,二者都过于关注强权的一方,忽略了被监视者的动态变化。或许,“共景监狱”更适合概括当下观看与被观看同时进行的特点,它“是一种围观结构,是众人对个体展开的凝视和控制”,[13]每个人都可能成为凝视的一方,也可能成为被凝视的一方,自我数据也可能被同样普通的他者泄露,隐私侵犯的风险与不确定性便不言而喻。
2. 路径依赖:自我评估与习得性无助
路径依赖最初指技术演进过程中新技术的惯性力量所形成的排他性。经济学家道格拉斯·诺斯将这一概念挪移至制度变迁中,证实了制度演化同样存在自我强化的现象,并且强调“人们过去做出的选择决定了他们现在可能的选择”。[14]相应地,算法的日益渗透,加之无形中人们对算法的接纳,也形成了一种算法依赖,人们出于某种社会或者心理需求,接受了算法的服务,一旦服务契合原始预期,人们对于算法的依赖就会由偶然转为常态。正是因为媒介经验可能会触发后续的媒介接触行为,所以,即使人们对于算法推荐背后的机理不清楚,也会为继续享受算法的便利而主动“交出”自己的信息。
那么,人们对于数据隐私的态度究竟是什么?一方面,人们感觉自己正在时时刻刻被窥视,而另一方面,又因无法脱离算法给予的便捷选择无动于衷。这种隐私关注态度与隐私保护行为的矛盾现象被定义为“隐私悖论”。[15]其实,这种不一致具有强烈的心理基础,除了媒介依赖,用户的自我感受也是重要的影响因素。隐私分为一般性隐私和重要隐私,若根据相关性以及重要性划分隐私等级,那么与人们越相关、对人们越重要的隐私信息则越会被优先关注,但每个人的隐私价值排序都是相对的、主观的,因此,才会出现面临同一类隐私时表现出严肃——无谓的两端取向。与此同时,这种心理机制还存在于自我效能感的评估中,即“个体对自己具有组织和执行达到特定成就的能力的信念”。[16]当人们感觉自己可以很好地控制信息时,便会努力寻找相应的保护策略,但反过来也会因为具备及时挽救损失的能力,而选择继续在线披露自我数据。与这种盲目乐观相对应,消极放任也是一股不容忽视的现实力量。通过多次隐私保护尝试,却无法抗衡算法的渗透,随之产生的习得性无助在一定程度上可能导致用户漠视隐私的一再泄露。
基于以上探讨可以发现,隐私问题并不是简单的权利施予问题,还涉及权力的流动、心理的变化等多重制约因素。因此,再审视隐私侵犯不应该站在道德高地狭义地将责任归结为平台、资本方的刻意谋划,也许人们自己正在与其他权力主体“合谋”参与自我与他人隐私的消费。
三、隐私风险的连带效应:信任危机
在依靠连接运转,又追求连接最大化的大数据时代,信息自由开始优于人的自由,争取数据开源而非保障隐私权成为首选项,数据权力与数据权利的矛盾已经产生连带效应,威胁社会信任的培育和构建。信任理论由社会学家齐美尔开创,其认为“信赖是在社会之内的最重要的综合力量之一”。[17]随后,尼克拉斯·卢曼、安东尼·吉登斯等学者在此基础上做了补充,进一步丰富了信任理论的内涵。卢曼认为信任“构成了复杂性简化的比较有效的形式”,[18](10)由此弥补了人类有限的理性和认知经验,这在吉登斯看来,主要是源于个体的“本体性安全”需求,这也是其将信任界定为个人“对一个人或一个系统之可依赖性所持有的信心”的原因。[19]“信任关系中内含一定的风险,信任方的感知风险调节着信任与风险承担之间的关系。”[20]数据隐私所牵扯出的风险感知同样会影响人们对于平台的信任、制度的信任、人际信任以及社会信任。
1. 秩序失调下的风险表征
现代化的发展节奏将传统秩序从现代性中抽离,引发了传统社会的断裂,造就了原子化的个体,人们脱离“熟人社会”走向“陌生群体”,失去了原来赖以为继的价值标准,变得无所适从。一方面,人们不得不根据社会分工规范运转,越来越趋向于独立化生存;另一方面,人们也渴求与他人建立更广泛的关联,弥补内心的缺失,这种寄托于现代性焦虑的矛盾心理在社会改革期尤为明显。此外,资本市场的复杂多变以及技术撬动的生态变革也在加剧社会的不稳定性,如此超重的社会现实,必然会影响人与人之间的信任关系,表露出越来越多的风险。反过来,当风险积攒到一定程度时,也会折损信任在社会中的价值。 吉登斯将信任划分为两种基本类型,即“人对人的信任”与“人对系统的信任”。[21]由于时空的快速更迭和分离,如今的信任体系逐渐从传统的人格信任过渡到抽象的系统信任,但这种信任“不是信任系统本身而是信任系统的有效运转”。[21]因此,当提及隐私风险时,更多指向了平台对于用户数据的使用是否正当合法,商家能否保护好消费者的隐私权不受侵犯,以及哪怕隐私泄露,他们会采取怎样的办法弥补过失,防止二次风险。平台是制度的具象化代言人,对于平台的态度会决定用户如何看待平台背后的技术系统,而技术变量作为整体社会系统的一分子(见图1),前者的荣辱也定会牵涉后者的生死存亡,一旦发生断裂,社会就会陷入信任崩塌的窘境。
2. 关系中介下的信任闭环
重返信任这一概念的原始界定,正如卢曼所言,“在任何情况下,信任都是一种社会关系,社会关系本身从属于特殊的规则系统”。[18](6-7)上文提到,人格信任与系统信任的权重虽发生了变化,但人是社会性动物,人际关系的磨合永远是一个恒常命题,且对于系统的信任,离不开人的操作与维持。因此,有必要对于隐私语境下人际信任的调节作用予以分析。如果说平台—系统—社会这一循環是内嵌式的连接模式,那么系统—人际—社会便是链条式、环环相扣式的信任图式(见图2)。系统信任对于人际信任具有正向的促进作用,而人际信任也会推动社会信任。
其实,人们对于隐私的担忧不仅在于单条信息的泄露,还在于信息整合后被一针见血地看穿的心理恐惧,这也就是数据主义成为一种意识形态后的可怕之处。数据的价值并不在于量大,而是将有效数据关联起来或者努力挖掘数据背后的深层含义。当数据被多维度记录时,这种价值就产生了,除个体多元搜索组成的数据库可以提供这种价值,广泛的社交数据才是更可靠的捷径,算法便是寄生于社交媒体完成这一使命的。有学者指出“算法即媒介”,因为其“充当着认知塑造者、关系建构者、社会黏合剂的角色”。这种力量源自“它的联结属性对价值关系的建构、匹配与调适”。[4]算法代表的正是吉登斯所提及的符号系统与专家系统的结合,信任算法等同于信任抽象的制度,“正是制度的这种暗含的规范意义以及我们假定它对于其他人所具有的道德合理性使我信任那些处于相同制度中的人”。[22]因此,当人们接受算法时,也接受了算法为其匹配好的关系结构,以及组成这种关系的人。
那么,人际信任又如何具体促进社会信任呢?在以往有限的时空里,人与人之间的信任是自在性的,人际信任与社会信任呈正比例变动,然而现代社会中,人际信任失去了永恒的支撑动力,变得模糊不清。因此,吉登斯建议采取积极或主动的信任,因为“从亲密的私人关系到全球化的交互系统,主动信任在各种情境中都处于新式的社会团结的本源地位”。[23]这种新的信任“比以前的信任关系形式更加具有相机性,更受条件的限制”,并且“要求增加社会关系的透明度,但也积极地提高这种透明度”。[24]按照这一思路,人际信任仍可促进社会的整体信任,只需保持对他人以及系统的开放态度,主动建立多样的信任关系。
四、兼顾个性隐私与公共信任的破局之道
数据自由与隐私保障并非不可调和,但也不是一蹴而就的,其实质涉及个体有限理性与无限感性、个体权益与公共权益、隐私权利与数据权力等多组矛盾的交叉汇合,而每一对关系都从漫长的历史中走来。目前较为重要的是,如何从新的背景下理解其中的冲突与争议。作为同样古老的话题,隐私与信任都是人类生存的重要支柱,前者保证私人领域的安全,后者负责内心领域的稳定。笔者认为,可以在完善法律体系、强化责任约束以及增强用户智媒素养这三个方面提供一些可操作的建议,以供借鉴。
1. 完善法律体系
麦克卢汉曾断言:“一旦新技术进入一种社会环境,它就不会停止在这一环境中渗透,除非它在每一种制度中都达到了饱和。”[25]事实表明,人工智能与大数据为达到这种饱和做出了巨大努力,若现实在一定程度上被改变,社会也应当予以回应,自上而下地做出调整。2017年,国务院发布《新一代人工智能发展规划》,正式将人工智能纳入国家战略层面,针对智能伦理的顶层设计就此铺开。纵观世界其他国家在这方面的做法,虽有可圈可点之处,但目前仍处于初级阶段,还需要继续探索完善。由于人工智能并不只是一个国家和民族的课题,国际合作也必不可少,如虚心借鉴成功经验,再结合本国国情具体落实;积极参与国际人工智能伦理规则的建立,共同维护全球网络安全。
2. 强化责任约束
法律红线的划定只走完了第一步,各大平台和互联网企业需要在此基础上完成第二步,即增强社会责任感,实现自我约束。波兹曼曾将技术垄断文明下的计算机代理定义为“代理转移”,在这个过程中,“人们将某一事件结果的责任从自身转移到更为抽象的代理身上”。[8](115)现如今,各大资讯平台直接越过传统的媒体机构,成为用户新的渠道落点,从某种程度上行使着媒体的权利,却可以理直气壮地将问题归咎于无辜的算法,代理权的交换不仅丧失了人对技术的控制权,也在泯灭着人类内心的道德底线。权利与义务从来都是成对出现的,这也在提醒一些平台何可为,何不可为。
首先,应公开算法原理,保证算法透明、可追溯。今日头条于2018年公布算法模型的设计维度与策略等问题的举措,便是一个很好的开始,也是培育平台信任的绝佳策略。其次,迭代优化算法,追求算法精益求精。算法并非中立,其中蕴含的价值偏见、种族性别歧视以及身份预设都影响了信息的平衡性与公共性。算法具有自我进化的能力,因此,应尽可能少地掺杂人为因素。最后,坚持用户至上,让算法越来越人性化。当用户首次注册登录时,应尊重用户的知情权,第一时间推送并解释说明平台的使用条款与隐私政策,给用户留有自主选择的空间;建立可追溯数据库系统,让用户有迹可循;建立举报监督机制,让用户有规可用。
3. 增强智媒素养
若硬性监督与软性约束这两步已经做好了铺垫,那么用户的智媒素养是十分关键的最后一步。人工智能时代下,媒介边界不断消弭,媒介素养也应做出相应扩张,增添智媒素养或者算法素养。一方面,有意识地积极了解智媒的操作逻辑和运作模式,以便预防个人隐私泄露,增强算法聚合后的信息把控能力。另一方面,学会辨别虚假信息,与多信源求证比对,谨慎发表意见,保持积极的中立。由于隐私曝光以连接过度为前提,因此反连接也应成为新的媒介素养。“反连接并不是无条件切断所有连接、封闭个体,而是在一定的情境下断开那些可能对个体产生过分压力与负担的连接链条。”[26]因此,反连接既是一种要求,也是一种权利,重点在于个体如何选择。当然,在以连接共享为主题的大数据时代,完全封闭几乎是不可能的,也是治标不治本的,重要的是如何看待影响连接的种种质疑。实际上,当社会大多数人选择对他人开放而非警惕时,质疑也就消失了,信任也就建立起来了。只是,在还未达成社会共识之前,这种开放也只能是有限度的开放,有所保留的欢迎。 结语
世界正处于百年未有之大变局,人工智能时代的到来,既是一个缩影,也是一个有分量的注脚,虽然“未来已来”,人们仍要直面技术超重带来的种种社会失序。也许万物互联的速度无法阻止,却可以调整连接的方向。当一个人被视为一条条零散孤立的数据,甚至是一种工具时,隐于内心的不安就产生了,信任纽带的断裂也就不远了。其实,智能时代激发的种种矛盾,远未超出人类自我处理的范畴,只有当人自身看重自我主体性,关心自己的同胞时,才能超越现有的困境,重塑以人为中心的社会秩序。
参考文献:
[1] 埃里希·弗罗姆. 逃避自由[M]. 刘林海,译. 北京:国际文化出版公司,2000:118-132.
[2] 罗杰斯. 传播学史:一种传记式的方法[M]. 殷晓蓉,译. 上海:上海译文出版社,2005:426.
[3] “更懂你”是什么感觉,答案在这里[EB/OL].[2018-03-07].新华网,http://www.xinhuanet.com/politics/2018-03/07/c_129825030.htm.
[4] 喻国明,耿晓梦. 算法即媒介:算法范式对媒介逻辑的重构[J]. 编辑之友,2020(7):45-51.
[5] 尼尔·波兹曼. 娱乐至死:童年的消逝[M]. 章艳,吴燕莛,译. 桂林:广西师范大学出版社,2009:12.
[6] 喻国明,郭超凯. 轻应用:“互联网发展下半场”消费场景的重构——试论小程序的生成逻辑与操作关键[J]. 青年记者,2017(25):50-54.
[7] 尤瓦尔·赫拉利. 未来简史:从智人到智神[M]. 林俊宏,译. 北京:中信出版集团,2017.
[8] 尼尔·波兹曼. 技术垄断:文明向技术投降[M]. 蔡金栋,梁薇,译. 北京:机械工业出版社,2013.
[9] Samuel D Warren, Louis D Brandeis.The Right to Privacy [J].Harv. L. Rev,1890(4):205.
[10] 约书亚·梅罗维茨. 消失的地域:电子媒介对社会行为的影响[M].肖志军,译. 北京:清华大学出版社,2002:39.
[11] 米歇尔·福柯. 规训与惩罚[M]. 刘北成,杨远婴,译. 北京:生活·读书·新知三联书店,2003:231.
[12] 张金鹏. 超级全景监狱:信息方式下的权力技术——波斯特论信息方式下的统治模式[J]. 南京社会科學,2007(8):40-45.
[13] 喻国明. 媒体变革:从“全景监狱”到“共景监狱”[J]. 人民论坛,2009(15):21.
[14] 道·诺斯. 制度变迁理论纲要[J]. 改革,1995(3):52-56.
[15] 孙保营,唐晶晶. 移动社交时代“隐私悖论”的困局及破解[J]. 新闻爱好者,2017(7):13-18.
[16] Bandura A, Freeman·W. H, Lightsey R. Self-Efficacy: The Exercise of Control[J]. Journal of Cognitive Psychotherapy,1999(13):158-166.
[17] 西美尔. 社会学:关于社会化形式的研究[M]. 林荣远,译. 北京:华夏出版社,2002:251.
[18] 尼克拉斯·卢曼. 信任:一个社会复杂性的简化机制[M]. 瞿铁鹏,李强,译. 上海:上海人民出版社,2005.
[19] 安东尼·吉登斯. 现代性的后果[M]. 田禾,译. 南京:译林出版社,2000:30.
[20] 赵付春. 大数据环境下用户隐私保护和信任构建[J].探索与争鸣,2017(12):97-100.
[21] 董才生. 论吉登斯的信任理论[J]. 学习与探索,2010(5):64-67.
[22] 马克·E.沃伦. 民主与信任[M]. 吴辉,译. 北京:华夏出版社,2004:65.
[23] 乌尔里希·贝克,安东尼·吉登斯,斯科特·拉什. 自反性现代化:现代社会秩序中的政治、传统与美学[M]. 赵文书,译. 北京:商务印书馆,2001:237.
[24] 安东尼·吉登斯. 超越左与右——激进政治的未来[M]. 李惠斌,杨雪冬,译. 北京:社会科学文献出版社,2000:97.
[25] 马歇尔·麦克卢汉. 理解媒介:论人的延伸[M]. 何道宽,译. 北京:商务印书馆,2000:226.
[26] 彭兰. 连接与反连接:互联网法则的摇摆[J]. 国际新闻界,2019(2):20-37.