人工智能时代的伦理与治理

2020年01月06日
本文作者:托斯登·耶里尼克  太和智库高级研究员、太和智库欧洲中心主任、世界经济论坛主管(2011-2014)
全文6358字,读完约需14分钟。

 

(图片来源:环球网)

 

技术是一把双刃剑,它通过扩大或限制权力、增加或减少机会,从根本上改变人与人之间的关系。当前,数字化技术广泛应用,人工智能(以下简称“AI”)技术方兴未艾,关于AI道德伦理的讨论也趋于复杂。从有利方面看,AI是创新、经济增长和竞争力的新来源,也是各行各业提高生产效率的驱动力。AI有望解决一系列全球最紧迫的问题,并实现可持续发展目标。AI创新的潜在经济效益和社会效益是巨大的。大多数人已经在日常生活中体验到AI带来的便利。从不利方面看,AI的迅速发展和其“无所不能”的天然属性为人们所警惕和谴责,因为AI可能导致前所未有的安全和隐私风险,长期来看,AI还可能造成严重的社会、经济、政治和国际关系失衡。从历史经验看,发展这种具有双重属性的前沿技术利大于弊,但“利大于弊”的实现往往是在技术被滥用导致事故发生,政府完善、改进法律规章,社会阵痛调整完毕之后。AI不仅是人类的技术成果,还将逐渐发展成为可自主决策的独立主体,所以我们不能单纯地依赖过去的技术发展经验。然而,在未来几十年里,AI的主要风险并不在于其会造成直接伤害和长期失衡,而在于其如何应用于现有的人与人之间的关系、人的实践和人的意图并对它们造成破坏。AI不独立于历史发展,而是永存于历史长河中,并可能会加速人类社会的发展进程,人类受到AI负面影响的可能性也相当之大。

 

AI发展的快与慢

 

随着AI技术的兴起,加之5G、物联网(IoT)、机器人、量子计算和合成生物等颠覆性技术的发展,不少科幻小说的情节已经成为现实。AI已经在诸如象棋、围棋、复杂的战略游戏以及医疗诊断等困难任务中击败人类。除了控制系统的智能自动化,近年来计算机视觉和自然语言处理备受关注,并在一些领域远超过人类的感知和表达水平。当然,AI距离模仿人类、甚至超越人类智能还有很长的路要走——它还需要克服与创造力和社会智能相关的工程瓶颈。虽然一些算法已经可以生成计算意义上的“自我”,但当前的AI尚无法从一个情境中抽象出一般概念,并将其应用到新的情境和任务中。算法也不能自动改变学习方法。虽然AI系统的应用极其高效且可扩展,但训练AI系统既耗时又费钱,而且训练过程比人类学习效率要低得多。从集体智慧的角度来看,AI尚无法构建大型复杂的社会组织或与之竞争,而这正是人类区别于AI的能力。与此同时,我们将面临巨大的挑战,正如AI之父艾伦·图灵(Alan Turing)所言:“我们只能看到前方很短的距离,但我们可以看到很多需要做的事情。”

 

不断变化的网络-物理[1]威胁格局

 

衡量AI的风险不是乐观或悲观主义的问题,而是理解AI如何服务于人类行为以及如何改变权力关系的问题。在AI达到甚至超过人类智能之前,AI的风险将是双重的:AI的风险既可能是立即并可被直接感受到的,也可能是长期结构性的。AI的短期直接风险与网络安全威胁的现有格局有关,恶意使用AI将导致网络安全威胁的巨大变化。传统的网络安全漏洞、网络犯罪事件急剧增加,威胁个人、企业和国家基础设施安全。世界经济论坛已将网络安全风险列为全球最严重的五大风险之一。2018年上半年,网络攻击导致了45亿条记录泄露,几乎是2017年泄露数量的两倍。网络攻击涉及数字系统和物理系统的破坏、盗窃和网络间谍等活动。网络战是以上各要素的结合,此外还包括了操纵舆论信息和心理操控。由于网络战的可扩展性、高效性,以及攻击者与被攻击目标之间心理距离的增大,恶意使用AI将导致现有网络安全威胁的扩大,形成新形式的网络-物理威胁,并通过权衡损益来实施更具针对性的攻击和犯罪。由于当前威胁和风险格局的变化,网络安全以及AI安全已经成为国家安全和军事优先考虑的事项。5G将物与物、物与人连接起来,AI提供的自动化功能提高了效率和便利性,两种技术的结合将极大地扩大网络-物理威胁和事故的范围。计算机网络的复杂性和互联性不断提高,网络攻击或黑客攻击的威慑力和归因也将更加复杂。防止网络威胁的发生是不可能的,但减轻其影响是可能的。对于许多国家来说,严重的网络安全事件不是会不会发生,而是什么时候发生,风险大小与具体是哪个技术提供商并不相关。

 

经济失衡

 

除了AI的直接风险,与AI相关的长期结构性风险更难预测,且影响将更加深远,因为技术不独立于历史发展,而是与历史进程紧密交织。当前人类的发展轨迹并没有显示出摆脱经济、社会、政治和国际关系恶性循环的迹象。经济上,智能自动化和智能增强导致了大规模劳动力转移、就业不足和劳动力技能下降等问题。当前,AI与人类智能直接竞争,而在之前的工业革命中,人类智能并没有受到自动化的影响。AI将不仅与知识工作者竞争,还将通过自动化替代体力劳动者。因此,各国政府必须为劳动力需求的结构性变化做好准备。自动化的普及和全球老龄化趋势将减少劳动力的需求和供给,而劳动力正是税收的主要来源。此外,市场力量导致了数据、AI技术和人才的集中甚至垄断。研发越来越多地从公共体系转向大型AI公司的实验室,这些公司不愿为了社会福利分享其知识产权。互联网降低的创业门槛被AI提高了,如果零边际成本的经济不受监管,那数字盗贼统治和AI重商主义将横行于世。发达国家有能力为那些无法重新掌握技能的人提供最低保障收入,但中低收入国家可能无法做到这一点,其发展阶段将面临停滞不前的风险。AI+数据是机器学习蓬勃发展的“新石油”,并将破坏全球劳动力分工。那些没有先进自动化技术以提高竞争力的国家将被远远甩在后面。劳动力,特别是廉价劳动力,未来将丧失比较优势,以前的发展模式也将过时。富国和穷国之间的收入不平等将更加严重,富国与富国之间亦是如此。在所有的经济合作与发展组织(OECD)国家中,美国的财富分配最不平等。一小群超人类主义者享受着数字升级的特权,而被甩在后面的人不断增加,并可能会成为反社会人群、民粹主义者和民族主义者。在劳动的意义被改变、提高人类尊严的新来源被找到之前,自动化将强化个人主义、人群疏远和孤独,并威胁个人身心健康和社会凝聚力。

 

政治失衡

 

政治家将更多地利用AI技术。企业利用AI能更准确地细分消费者群体,并吸引他们的注意力,政治家利用AI是为了更好地理解公民——可被说服的选民、支持者,以及潜在的安全威胁。如果政治家们能负责任地使用AI,并找到经济增长、社会福利和国家安全的平衡点,将有助于提高国家治安水平、优化政治机制。然而,通过限制自治空间,AI增加了在国家、经济和社会之间权力平衡点转移的结构性风险。通过基于AI的大规模监控、心理战和信息武器化,政治家可能会谋求过大的权力或扩大民粹主义。这种政治风险情景的两极是极权主义和暴民政治。在这两种情况下,权力之争主导着进步之争,并威胁着现代国家和政府的支柱:官僚机构、法治和问责制。专制国家通过施加无处不在的国家控制并压制分歧从而成为极权主义政体,而民主国家将目睹其制度的侵蚀、社会的两极分化以及其“公共道德”和“制造共识”的瓦解。不幸的是,世界正在走向政治失衡的两极,而且“自由资本主义”发展成“政治资本主义”的可能性更大。AI不是起因,但它是一个日益武器化的工具,被各国用来破坏敌对国家的政治进程。爱德华·斯诺登(Edward Snowden)和剑桥分析(Cambridge Analytica)事件[2]是最有名且令人不安的案件,事件涉及西方国家内部广泛的网络间谍活动、侵犯隐私、操纵舆论和干涉民主进程。然而,西方国家却经常指责俄罗斯、中国、朝鲜、伊朗和叙利亚实施国家或国家支持的网络入侵和攻击以及无处不在的大规模监控。

 

破坏国际关系

 

全球的AI竞争挑战着当前的国际关系。主要经济体都已制定或修订了AI国家战略,目标是促进其新兴AI能力和生态系统的发展,提升在全球范围内的竞争力。2017年,俄罗斯总统普京清晰地阐述了AI的战略重要性:“谁成为这一领域的领导者,谁就会成为世界的统治者。”然而,在AI的全球竞赛中,俄罗斯并未领先,目前领先的是美国,紧随其后的是中国。美国希望保持“人工智能的领导地位”,而中国则希望到2030年成为“世界主要人工智能创新中心”。欧洲也意欲成为“世界领先的前沿人工智能地区”,但在AI人才、企业、申请专利、发表论文数量以及研发投入方面,欧洲落后于美国和中国。各国都强调AI是增长和竞争力的源泉。同时,AI被归类为一种双重属性的技术,受到国家安全、出口管制和外国直接投资(FDI)审查机制的约束。各国政府纷纷制定并通过新法规,以减轻网络安全风险、确保隐私保护,并加强执法。新法规还打着数字和数据主权的旗号保护国内市场。针锋相对的竞争已经扩展到了国防机构,这些机构正在为“超级战争”做准备,并把“为战争准备的AI”作为优先发展事项。最令人不安的是致命自主武器(Lethal Autonomous Weapons,简称:LAW)的发展。欧盟呼吁禁止“自动杀人机器人”的同时,美国、俄罗斯及其他很多国家都在推进或获得致命自主武器能力。与常规武器相比,网络武器成本低,更易获得,这将加速网络战和致命自主武器能力的扩散,也将增强在常规武器上较弱的国家的力量,从而大大增加不对称冲突的风险。网络技术的扩散、各国不断提高的进攻性网络能力大大增加了国际网络冲突和网络战的实际风险——即一国使用数字技术来破坏另一国的重要数字系统。许多网络依赖于私营部门的基础设施,因此网络技术的扩散也存在“友军炮火”[3]和“二阶后果”[4]的风险。对国防部门来说,AI无关乎好坏,而关乎竞争和冲突。

 

全球已经有很多处理网络安全和网络犯罪的国际组织,但基于AI的网络冲突领域却少有国际条约和相互熟悉、信任的尝试,特别是敌对国家之间。全球范围内关于网络安全和预防网络犯罪的讨论仍存分歧,常规武器控制条约正被撕毁或受到质疑。此外,美国正在竭尽全力将其技术、研究和供应链与中国脱钩,并敦促欧洲及其他盟友和伙伴也这样做。美国出于国家安全考虑限制中国的崛起,尽管它未能提供中国不当行为的证据。美国和中国在5G问题上的冲突最为明显,而且这种冲突越来越多地扩展到如AI、物联网、机器人、量子计算和合成生物等其他颠覆性技术上。

 

(图片来源:sputniknews.cn)

 

AI伦理和治理的前景

 

数字技术和AI革命的结果无法预测,毕竟历史无法告诉我们什么才是最后的技术革命,但严峻的直接威胁、长期的结构性失衡和紧张的局势引发了国际上对AI伦理和治理的热议。在这场讨论中,“伦理”一词经常被用来形容那些对AI潜在破坏的合理担忧。关于AI伦理和治理的讨论,最有争议的就是世界范围内各种各样的AI原则框架定义,这些定义主要由大型互联网平台、跨国公司、国际非政府组织和各国政府提出。

 

尽管某些伦理原则存在微妙但关键的差异,但各种原则框架都强调未来的AI应该是安全的、可解释的、公平的和可靠的,并且其收益应该由社会共享。这些定义似乎达成了一个国际共识,即AI应该被用来为人类谋福利,AI应以人为中心、负责任、值得信赖,并应始终将能动性交给人并为人所监督。然而,这些积极的原则框架反而证实了当今的伦理和治理能力不足以防止或减轻AI的破坏性力量,而且这些潜在破坏力明显具有全球影响和历史意义。几乎所有的框架都是从狭义角度分析AI风险——没有考虑技术的双重属性与实际的社会、政治、经济和国际事务之间的联系。这些框架忽略了AI最有可能加强而非改变社会、政治、经济和国际事务的历史轨迹。AI将越来越多地做出自主决策,但短期内它不会脱离人类并实现完全自主,我们不能依赖AI承担一个卓越的、超级有益的、以人为中心的指南针角色,以指引人类过上普遍公平、有尊严的生活。虽然很多AI原则很容易被确立,但考虑到AI风险的复杂性和不确定性,确立新的治理方法以执行AI原则将更加困难。

 

治理为在共同原则指导下进行协作提供了一种可能。协作是必要的,因为每个利益相关者承担着不同的责任,没有一个利益相关者能够独自处理AI所有的风险。为了有效地应对AI风险,主要经济体间就AI伦理和治理协同与合作更加紧迫,然而,他们之间根本性的政治和文化差异似乎不可消弭。美国是一个以利润为导向的市场经济和以自我实现为目的的个人主义国家,美国政府强调AI为研发、经济增长和创造就业提供了机会,虽然网络安全风险是国家责任,但AI主要服务于自主创造财富的资本主义伦理。相反,欧洲则强调以集体主义和人权的方式看待AI。根据欧盟的说法,AI应该是合法的、健康的、道德的,降低AI风险是监管问题。而“仁”是中国的第一美德,对中国政府来说,数据和AI是通过监视和控制来协调社会稳定和秩序的手段。中国更倾向于把数字革命看作是机遇,但西方倾向于强调广泛数字化的危险。

 

毫无疑问,这种两极化的态度有可能让人们忽略相同地区内的差异和不同地区之间的相似之处。欧洲、美国和中国越来越意识到数字化和AI所带来的隐私和安全风险。各国政府纷纷寻求安全和自治之间的平衡,以最大限度地减少风险,同时提高收益。大型互联网和AI平台“被迫”变得更加负责。大国在AI问题上面临着同样的挑战,各个国家从不同的角度应对挑战,但这种做法破坏了AI领域的国际合作和治理前景。尤其是美国和中国,在长期的友好关系后,双方似乎失去了相互理解的耐心并极力表达和捍卫自己的观点:中国视世界为“命运共同体”,而美国则强调“竞争共存”是两国关系的新基础,“竞争共存”理念使得现实局势更加紧张,而且还缺乏和平共处的概念。

 

当前,全球局势非常紧张。20世纪90年代和21世纪00年代的全球主义有可能变成后全球主义现实,相互竞争的全球主义国家屡屡未能就发展新的平衡和多边秩序达成共识。美国主导的旧秩序的瓦解,让我们回到了一个“强权即正义”的时代。这是一个同盟与分裂并行的双边主义时代,这是一个具有高度不确定性且风险不可控的时代。欧洲变得更加“真实”。但“欧洲的觉醒”依然岌岌可危,因为欧洲还在继续寻找分裂、仇外情绪加剧、增长乏力和保护“欧洲生活方式”之间的平衡点,且全球管理能力不足。与美国一样,欧洲还没有找到一条弥合“婆罗门左派”和“商人右派”[5]日益扩大的鸿沟的出路,欧洲社会内部的斗争和焦虑也没有得到反映。欧洲仍然夹在“保护主义”的美国、“冲劲十足”的中国以及中美两国的竞争之间。尽管在很大程度上,欧洲并不认同特朗普的个性和做法,但欧洲也对中国日益增强的主导地位和中国没有向西方靠拢的做法表示不满和担忧。欧盟开始将中国视作“战略竞争对手”,尽管它没有加入美国针对中国的单边贸易战。美国似乎对自己的未来感到忧心忡忡,中国必须更加努力地找到减轻这种担忧的方法。就目前而言,只有当这三大经济体是彼此最重要的贸易伙伴时,才有可能避免进一步的互相伤害。

 

(图片来源:环球网)

 

在这一背景下,AI成为了各国超越其竞争对手的战略竞争法宝。和资本主义一样,AI具有破坏性,缺少社会福利的伦理规范。因此,需打破目前的恶性循环,确保AI技术服务于社会和生态利益,围绕人类的主观能动性、协同和合作。AI是一种凸显诸如不平等的注意力经济、监视和更大的权力斗争等历史问题的高风险技术。为了打破恶性循环,防止AI原则意识形态化,不仅需要AI为人类服务,还需要人类做出改变。如果人类历史出现倒退,那么AI就不应单纯模仿人类的价值观和大脑,而应该从中学习并作出改进。

 

 

注释:

[1]网络-物理(cyber-physical):计算资源、网络资源与物理环境的结合与协调。
[2]剑桥分析事件:2018年,英国数据分析公司剑桥分析被曝不正当使用近8700万Facebook用户数据,并参与到2016年美国总统大选事件,成功地帮助特朗普赢得大选。
[3]友军炮火:来自友军的误射炮火;误向自己人开火。
[4]二阶后果:后续的影响和作用。
[5]“婆罗门左派”和“商人右派”:以美国为例,原先代表中下层阶层的民主党,已经成为了受过高等教育的精英(婆罗门)掌握话语权的左派,而传统富裕商人阶层组成的共和党,则依然由寡头和巨头们控制。

 

 

太和智库原创文章,转载请注明出处。
—————————————————
国以人兴,政以才治。太和智库,关注时代需要。
微信公众号:taihezhiku