全球人工智能治理:藩篱与路径

近两年,人工智能技术异军突起,风险与机遇并存,如何加强全球人工智能治理?元战略梳理总结全球人工智能治理最新研究成果,分析当前人工智能治理的困境,针对目前存在的挑战提出合理化建议,为读者探讨全球人工智能治理提供参考。
2022年底至2023年初,ChatGPT等新型人工智能技术进入市场,既提高了工作效率,增强了消费体验,同时也带来了重大风险,如威胁国家安全,增强技术垄断,侵犯个人数据隐私、强化社会偏见和增加算力能耗等。以上风险超越国界,重新激起了全球加强人工智能治理的呼声。越来越多人呼吁建立国家间人工智能治理机构。本文正是对这一呼吁的回应,陈述了加强全球人工智能治理的地缘政治和制度障碍,并提出了相应的解决之道。
本文建议加强现有的国际监管机制,这是全球人工智能治理的前进方向,加强现有机构之间的协调和能力有助于出台变革性政策举措,在受人工智能影响的各个政策领域发生变革,使技术治理更加灵活。基于此建议,本文概述了全球人工智能治理进程,分析了国际关系中的一级和二级合作问题如何适用于人工智能,评估了推进全球人工智能治理的潜在途径,并就如何加强人工智能综合治理机制提出建议。
一、全球人工智能治理进程概述
(一)各国和国际机构一直在积极制定国际人工智能治理倡议
(1)自2014年以来,联合国一直在讨论根据《特定常规武器公约》管理致命自主武器系统的问题。
(2)2019年,经合组织成员国通过了一套人工智能伦理原则,20国集团领导人随后承诺遵守该人工智能伦理原则。
(3)2021年,联合国教科文组织193个成员国通过了《人工智能伦理问题建议书》,旨在指导签署国制定适当的法律框架。
(4)2023年,七国集团(美国、英国、法国、德国、日本、意大利和加拿大)启动了“广岛人工智能进程”,以加强人工智能治理方面的合作,而金砖国家(巴西、俄罗斯、印度、中国和南非)则同意成立一个“人工智能研究小组”。
(5)欧洲委员会一直在制定一项具有法律约束力的人工智能与人权国际公约,并于2023年12月公布了草案文本。
(二)各国努力建立新的国际人工智能机构
(1)2020年,由15个创始成员国(加拿大、法国、德国、澳大利亚、韩国、美国、意大利、印度、日本、墨西哥、新西兰、英国、新加坡、斯洛文尼亚和欧盟)共同成立“人工智能全球合作组织”。
(2)2021年,为协调欧盟和美国在贸易和技术方面的活动,成立美国-欧盟贸易和技术理事会。
(3)2023年,联合国秘书长的技术特使宣布成立联合国人工智能高级别咨询机构,负责就国际人工智能治理提出建议。
(4)2023年,英国宣布成立英国人工智能安全研究所,旨在促进全球对先进人工智能的了解。
二、全球人工智能治理困境
由于现有人工智能治理机制存在倡议不足、治理格局存在差距以及国际社会难以就更合适的机制达成共识,因此国际人工智能治理机制存在治理赤字。随着国际人工智能治理格局的成熟,人工智能技术的特点意味着一级和二级国际合作问题将对为该技术制定有效的全球治理机制带来重大挑战。一级合作问题源于国际无政府状态的地缘政治挑战,在此被理解为“世界政治中缺乏共同政府,而不是否认国际社会的存在,尽管国际社会支离破碎”。在没有主权权威的情况下,国家面临着执行协议和其他国家意图的不确定性。在这种情况下,合作程度因政策领域而异,并受到国家的威胁感、信任程度和利益一致等因素的影响。由于各国将人工智能视为竞争优势之一,因而人工智能特别容易受到一级合作问题的影响,各国纷纷制定政策来加强自己的国际地位。美国对半导体实行出口管制,以阻碍特定国家的人工智能发展,同时也促进国内半导体生产。欧盟的监管努力产生“布鲁塞尔效应”(即欧盟通过其庞大的内部市场和制度架构,单方面影响全球监管标准的能力),通过塑造公司在国际上遵循的规则,对技术竞争产生影响。认为人工智能是竞争优势的核心以及“军备竞赛”的说法扩大了一级合作问题,破坏了国家间的相互信任。
一级合作问题可以通过提供合作框架和促进沟通的国际机构来缓解。然而,由于机构功能失调而产生的二级合作问题阻碍了建立有效的全球人工智能治理机制。第二次世界大战后,国际机构激增,加上交通和信息技术的突破,加深了国家间的一体化,并将许多国内政策领域转变为国际政策领域。这一成功使当代的多边合作变得更加复杂。非殖民化在制度化的推动下,使更多的国家参与全球治理。制度的惰性阻碍了对这一现实情况的适应,而日益增长的全球化互联互通又要求制度解决更复杂的问题。虽然出现了新的国际机构来解决新的政策问题,但这可能加剧了机构的分散和任务的重叠,限制了制度的有效性。
撇开合法性问题不谈,与卫生等多极政策领域相比,理论上有很大的协议空间。然而,在必要的政策应对方面几乎没有共识。欧盟强调新法规,美国采取更加自由放任的方法。在国际层面上,这使得七国集团等机构在应制定何种国际政府工具的问题上出现分歧。人工智能的复杂性使达成国际协议变得更加复杂,利益相关者对哪些问题应优先处理几乎没有共识。例如,“长期派”学者关注人工智能带来的潜在生存威胁,而那些更关注已经出现的危害(如偏见)的学者之间存在分歧。这种分歧体现在国家层面,英国比欧盟更重视长期的安全风险,而欧盟则更关注现存的危害。
三、全球人工智能治理的出路
要解决全球人工智能治理赤字问题,就必须在当前的地缘政治和制度条件下,从薄弱的机制复合体转变为尽可能强大的治理体系。本文考虑了两条前进道路:第一,发展新的集中式全球人工智能机构;第二,加强现有机构之间的协调和能力。在评估所提出的前进道路时,本文较少关注理想化的制度解决方案,而更多地关注在考虑合作问题的情况下,这条道路能否实现效益。因此,本文抽象地评估了每种类型的人工智能制度,以及在当前地缘政治和制度条件下的人工智能制度。
最集中化的方案是效仿核治理,即依靠国际原子能机构来制定标准,但这不太可能成为协调国家行动的有效方式。虽然它可以缓解当前的制度摩擦,但集中化的制度授权往往是脆弱的,而人工智能机构由于其发展速度而面临的风险尤其大。更重要的是,核问题与人工智能问题并不相似。人工智能政策的定义松散,在领域界限和何为危害方面存在分歧。人工智能是分散的,这意味着它不像核能那样面临材料方面的实际瓶颈。此外,它还具有贯穿上下游以及跨部门的影响。
围绕少数几个新的人工智能特定机构建立半集中化的制度是一个更现实的解决方案,可以缓解一些僵化问题。然而,建立新机构有可能进一步分散治理格局,从而削弱权威。由于作为人工智能治理典范的国际机构是在非常不同的地缘政治条件下建立的,因此建立这种制度还将面临可行性挑战。国际原子能机构成立于1957年,当时正值国际机构扩散时期,直到1968年缔结《不扩散核武器条约》后才获得实质性权力。对核武器造成的生存风险达成共识有助于这些努力,而人工智能却不具备这一点。当代的一级和二级合作问题使这类正式机构的建立变得更加复杂。
加强现有薄弱的人工智能机制复合体(AI regime complex)是另一种方案。机制复合体模式允许在不同论坛开展合作,即使地缘政治或制度条件阻碍了其他论坛的进展。这有利于循序渐进,建立来自无数国家和非国家行为者的信任,从而随着时间的推移产生相辅相成的变化。它还允许根据技术变化进行调整,并纳入包括大型科技公司在内的多种治理利益相关者。复杂制度模式也有缺点,特别是与行为者推卸责任或违背承诺有关,政府和私营部门的气候承诺就是如此。
目前,由于缺乏机构协调和权威性,人工智能机制复合体模式的益处被削弱,这使得治理格局支离破碎且相互矛盾。一个更强大的机制复合体将涉及各行为体之间的高度协调和一致性,通过互补性举措支持治理人工智能的综合方法。这也可能涉及发展新的机构以填补治理空白。
人工智能治理更具价值导向性,并受到国家间竞争的影响,这表明合作可能更具挑战性。然而,国家间的合作正在进行,当国家间的行动陷入僵局时,多层次的治理也在进行。更重要的是,即使预计人工智能制度并不完美,但气候治理的历史表明,在一个多层面的政策领域,渐进的方法比单纯依靠集中讨价还价更有可能支持成功的结果。
四、政策建议
加强现有的人工智能机制复合体,而不是建立新的中央机构,是更理想、更现实的治理方案。这一途径并非解决全球人工智能治理挑战的灵丹妙药,但它支持在多层治理中取得渐进性进展,从而推动有意义的变革。我们提出了通过改善协调和程序合法性来加强现有人工智能机制复合体的建议,这些建议是迈向更强大的机制复合体的第一步。
需要在国际机构之间以及更广泛的范围内加强协调。联合国人工智能高级别咨询机构即将开展工作,绘制国际人工智能生态系统地图并提出建议,这是开始解决这一问题的重要契机。利用沟通和谈判渠道来商定国家机构之间的职权范围将是非常重要的,但这一复杂制度的多中心性质意味着最优先的事项是围绕专家机构制定的共同目标调整各节点。权威的专家信息可为协调提供支持,反过来,不同国家和多级治理机构也可采取相辅相成的行动。联合国机构最好能发挥这一作用,但由于上述原因,我们有理由对其可行性持怀疑态度。英国新成立的人工智能安全研究所是另一种可能性,因为它是专门为全球决策提供信息而成立的。然而,该机构是单方面成立的,其他国家对其反应冷淡,这表明它要成为公认的专业中心将面临重重困难。
扩大经合组织的人工智能工作可包括经济影响排名、政策协调框架、善治指标和减轻具体风险的建议等产出。这类权威信息将支持各国之间基于证据的合作和同行压力,从而达成一致。它还可以为国家以下各级和私营部门的治理工作提供信息,或供游说政府的民间社会组织使用。依赖经合组织的主要风险在于,由于该组织主要以欧洲为基地,因此被认为缺乏合法性,导致一些国家忽视其成果。由一个更具代表性的组织向经合组织委派具体项目,可以降低这种风险。经合组织利用其技术专长为“全球治理之轮”提供润滑剂以支持其他机构,从而发挥这种“缓和治理”作用的先例比比皆是,二十国集团将国际税收政策的某些方面委托给经合组织就是一个显著的例子。
要加强机制复合体,还需要通过审查现有的节点是否履行了适当的职能,来改善目前规则制定的民主程序。在这方面,联合国高级咨询机构即将开展的工作也为评估合适的机构是否正在开展合适的工作提供了机会。鉴于国际标准机构的成员组成和工作程序,这些机构正在开展的工作具有很高的价值性,这也是应当进行审查的一个例子。有人建议增加公民社会在这些机构中的参与,以加强其程序合法性,然而,监管提案的技术复杂性与公民社会行动者“动员异议”的程度之间存在着显著的负相关,这表明,由于资源和专业知识的限制,这些组织不太可能做出有意义的贡献。
为促进更强有力的全球人工智能治理,有必要将讨论的重点从应建立哪种类型的国际人工智能机构转移到如何改进协调和民主程序等更广泛的问题上来。在气候治理方面,经过几十年的合作失败,我们才开始采用更加分散的模式。在人工智能治理领域,我们不应重蹈覆辙。