人类是否终将因人工智能的发展而自取灭亡?这是当下有关人工智能的一个热点问题。图为年5月11日,在德国首都柏林举行的一个技术博览会上,英国初创公司OpenBionics开发的机器人假肢模仿一位男士手指的活动。视觉中国资料图
一、从“怪异”的特朗普说起
在年的美国大选中,主流媒体一直不看好特朗普,但他最终却赢了当时的大热门希拉里。不少美国人至今仍无法理解这一结果。自年就任美国总统以来,特朗普依旧坚持“不走寻常路”,言行时常令人觉得“怪异”。但是在特朗普不按常理出牌的背后,一个很可能的真相是,并非美国人不了解特朗普,而是特朗普更了解美国人。
最近美国媒体爆出特朗普竞选期间的超级秘密武器:一家名为“剑桥分析”(CambridgeAnalytica)的英国数据分析公司收集了多达万脸书网站(Facebook)用户的数据,该公司利用自己发明的“心理学建模”算法给这些用户“画像”(涵盖年龄、性别、工作、地点、政治立场、兴趣爱好、情感偏好等上百个数据项),然后根据不同用户的特点与倾向,在大选期间通过人工智能软件向其中的选民精准推送诱导性信息与政治广告。这一手段帮助特朗普拉拢了很多中间选民,在特朗普的胜选中发挥了重要作用。
以此来看,
相比传统的民意调查和政治营销手段,拥有人工智能支持的特朗普之前是在打一场“不对称”选战。
因为对手只能看到局部,而他却能看到选民的“全景”,并且能够精准制定和调整相应的竞选策略,进而不断强化自己的优势。外界和主流媒体之所以很难理解特朗普的言行,主要缘自他们往往仅靠刻板印象与政治正确去做推断,而不是像特朗普那样,依靠大数据和人工智能技术把握了大多数美国人的意见。
无独有偶,美国另一家社交媒体巨头推特(Twitter)前不久也被发现卷入上述脸书的数据泄露丑闻,剑桥分析公司很可能也利用了推特数据为特朗普的竞选服务。照此推理,我们也不难理解特朗普上任后为什么偏爱“推特治国”。特朗普迄今为止已在推特上发文近4万条,拥有多万追随者,并有两个机器人账号帮助高频播报他的各种推文,其粉丝数量在过去一年内增长超过%。特朗普在大选中尝到人工智能技术的甜头,我们很难想象他不再使用这一工具来挖掘自己推特数据的决策参考价值。
如果在很多重大问题上,特朗普均有借助人工智能收集“民意”以资决策参考,那么他的“怪异”言行并不会拉低他在美国国内的实际支持率。
二、守门人理论视角下的人类历史演进
其实像特朗普这样的决策者需要决策参考,是一个非常普遍的现象。几乎古今中外的每一个人在做决策时,都需要一定的决策参考。这个为我们提供决策参考的人,我们可以称之为守门人(gatekeeper)。
我们身处在由无数守门人所编织成的无形大网中。每一个人都无法逃避各种守门人对我们决策的影响,与此同时,我们也在为别人的决策扮演着某种守门人角色。在人类历史的长河中,基于大数据技术的人工智能发挥守门人作用,的确是一个值得认真研究的新现象。
如果将我们生活的世界分为四个部分,即日常生活、公共生活、组织生活以及虚拟生活,那么与此相应,可以在这些不同的生活世界中识别出四种不同的守门人类型:咨询型守门人、制度型守门人、管理型守门人和工具型守门人
。
咨询型守门人基于人际关系,为决策者的日常生活提供咨询或建议,如父母亲朋等;制度型守门人基于社会关系,为决策者的公共生活提供社会服务或公共产品,如法官和教师等;管理型守门人基于组织关系,根据其组织角色帮助组织内的决策者提供决策参考或辅助决策;工具型守门人基于用户关系,它们在虚拟世界中帮助用户获取所需信息或是协助处理大量复杂信息,如各种网络技术与工具,也包括时下流行的人工智能。(详见拙著:《谁在误导你的决策——无处不在的守门人》,社会科学文献出版社,年)
由上述守门人的类型学可以看出,守门人已经作为一种不可或缺的机制深深地嵌入我们生活世界的各个方面。当前,四种守门人类型并存于世,他们在各自的领域发挥着不可或缺的作用。从最一般的意义上来说,守门人才是真正的历史创造者和塑造者,由此守门人视角也可以为我们提供有关人类的新历史观。
从人类历史的进程来看,咨询型守门人最早出现。在远古社会,人类的生存、繁衍和发展在很大程度上需要依靠代际之间的知识和经验传承,而那些向后辈传授知识和经验的长辈便是最早的咨询型守门人。这时整个社会的信息总量不大,所涉及的人事也不太复杂。
随着社会系统的信息量和复杂性的不断增加,专业化与社会分工的发展减少了信息处理的成本,进而使得制度型守门人作为某些咨询型守门人制度化的替代物而产生。制度型守门人有助于更有效地处理较为复杂的信息和事情,在此基础上宗族、民族和国家等集体概念开始出现,进一步促进了人类社会的发展。
近代工业革命开启了以理性精神为主导的科层制时代,组织力量的发展打破了英国经济学家亚当斯密(—)时代原子式的竞争格局。在这个过程中,管理型守门人在日益组织化的社会中大量涌现。19世纪晚期的美国,铁路大型工程的建设助推现代公司制度出现,这一制度的有效性使得公司组织形式在全世界得以广泛应用,管理型守门人在协调和配置市场资源中的角色也随之日益凸显。
工具型守门人则在以现代信息技术为标志的第三次工业革命中应运而生。随着互联网技术的发展,大量新兴的工具型守门人开始出现。在过去,面对未知和复杂的事务,我们更多求助于身边的咨询型守门人、社会中的制度型守门人或组织内的管理型守门人,但现在我们越来越多地使用工具型守门人(谷歌、百度这样的检索工具或大数据技术)来获取认知与决策的参考。
在当前的大数据和人工智能时代,工具型守门人正呈现大发展的趋势。
比如被中国围棋手柯洁称为“围棋上帝”的谷歌公司人工智能程序“阿尔法狗”(AlphaGo)以及它的超强升级版“阿尔法元”(AlphaZero),再比如时下被追捧的无人驾驶、机器翻译以及语音识别等技术。由于工具型守门人拥有更强大的计算能力、学习能力、分析能力乃至解决问题的能力,一些传统的守门人正在被一些新兴的工具型守门人所取代。
三、人工智能对人类未来的三大挑战
工具型守门人的最初形态只是利用信息技术帮助决策者收集和处理信息,从而辅助决策者的认知与决策,比如百度和谷歌这一类的搜索引擎。在大数据技术基础上的人工智能则是工具型守门人的一种高级形态,因为它能发挥的作用不仅是数据处理,而且还具备深度学习和理解能力,能够帮助决策者发现信息和数据背后的结构与规律,使得决策者的决策变得更为容易和高效,有时甚至可以帮助决策者直接解决问题。
如果说从咨询型守门人演变至工具型守门人是人类社会分工不断发展的结果,那么人工智能作为工具型守门人的高级形态,则可以被看成是人类分工发展的一种极端形式,因为它正使得人类之间的一些分工转变成人类和机器之间的分工。尽管一些人认为人工智能目前的水平只是对人脑思维的一种简单模拟,但很多人坚持认为,人工智能在超越人类心智能力方面正在取得突破性进展。从技术发展的长期趋势来看,人工智能有可能给人类的未来带来至少三大挑战。
第一大挑战是
人类的决策被工具型守门人控制
。
关于此种挑战,本文开头列举的特朗普在大选期间所使用的人工智能技术便是一个很好的例子:选民看似是自主决策,但是人工智能技术的运用极大减弱了选民特别是中间选民投票决策中的自主性。随着人工智能技术的发展,在到底是谁做决策这一问题上,决策者和工具型守门人之间的界限正变得日益模糊。以人工智能技术为核心的工具型守门人常常在代替人类做决策,甚至可以说这往往是人工智能技术在商业应用方面所追求的目标,即不断增加用户决策时对工具型守门人的依赖,直至其完全被控制。
例如,无人驾驶的人工智能技术旨在将驾驶员彻底变为乘客,使得驾驶员在车辆行驶过程中无需再根据路况和车况等数据做各种决策,在此条件下,驾驶员自主驾驶反倒变成一种安全隐患。有关“被决策”的情形,当前在互联网大数据精准营销中也体现得特别明显。我们在阅读网络新闻或网上购物时,越来越容易发现自己“喜爱”或“感兴趣”的新闻或商品,这使得不少人在网络上花的时间越来越多。但事实上,这只是基于大数据技术对我们的网络行为、心理偏好、生活习惯等进行“画像”后,再由网站或软件精准向我们推送有关新闻或商品。我们貌似在一个自由市场中自主决定注意力的分配或是购买何种商品,但在很大程度上,我们的选择都被工具型守门人所诱导甚至是控制,而且这种诱导与控制可被不断强化,最终结果可能是,我们的偏好与决策被工具型守门人所塑造。
第二大挑战是
人类社会的不公平和不平等,
即以色列新锐历史学家尤瓦尔赫拉利(YuvalNoahHarari)在其畅销名作《未来简史》中提到的“前所未有的社会及政治不平等”,可能进一步加剧
。
数据大爆炸导致注意力成为最稀缺的资源,人工智能技术因为可以有效引导人类注意力的投放而拥有巨大的权力。由于人工智能技术的发展在不同国家有先有后,不同的组织对人工智能技术的掌握和应用程度有所不同,个体之间受人工智能技术的影响也会有所差别,由此便不可避免地会带来新的不公平和不平等。那些最先掌握人工智能技术并且应用这些技术为自己服务的个人、组织或国家,相较于其他个体、组织或国家而言将拥有压倒性的优势。当这种优势被滥用而不被有效约束时,不公平和不平等的加剧将是一个无法避免的结果。
在不公平和不平等方面,一个较为普遍的担忧是人工智能将导致前所未有的失业问题。这与本世纪初互联网和计算机的普遍使用所带来的失业问题有根本的不同。前面已经谈及,人工智能作为工具型守门人的高级形态,其目标实质上是取代决策者的工作,而不是像传统的守门人那样仅仅是辅助决策者的工作。换句话说,人工智能是在从根本上挤压人类在社会分工中的价值空间。未来社会的分工可能更多将发生在人类和人工智能之间,而并非以往那样,随着技术发展而在人类之间进行分工调整,那些无法很好适应这种分工转变的人或国家将在竞争中处于明显劣势,一些人的生存机会甚至会因此受到威胁。反过来说,那些在开发和利用人工智能方面领先的精英或国家,将获得显失公平的极高酬赏。
第三大挑战是
人类会因人工智能带来的伦理道德问题而变得更加脆弱,但这却将促进人工智能的进一步发展
。
对传统的守门人而言,一个最基本的价值伦理问题是,他应为决策者守门并且尽忠职守。对一般的工具型守门人而言,为用户的决策利益服务的同时不损害其他人的利益应是最基本的道德原则。但正如我们在前面提及的政治营销和精准市场营销中所看到的,人工智能作为工具型守门人,其目标常常是控制决策者的决策,因此未来其行事方式很可能是在一些方面“不动声色”地损害决策者利益(如现在已经很普遍的隐私侵犯),从而确保技术的拥有者和使用者的利益最大化。很讽刺的是,这一点也可能是人工智能技术获得发展的刺激和源动力。未来在越来越多的领域,人工智能技术将更容易获得垄断地位,高度依赖这些技术以及受这些技术控制的人将更容易受到伤害。
最具威胁性的伦理道德问题可能发生在军事领域。一些技术领先的国家已开始将人工智能应用到武器研发中,未来有可能在人工智能武器基础上出现“新殖民主义”或“新恐怖主义”。如同近代中国的冷兵器无法对抗欧美的热兵器一样,未来仅拥有热兵器的国家也无法抵抗拥有人工智能武器的国家。
这一威胁的严重性已经引发