公共政策
人工智能全球治理的现状
What is the State of Artificial Intelligence Governance Globally?
2020年10月15日 16:34    作者:James Butcher、Irakli Beridze 编译:魏露露    编辑:蔡诗涵

【编者按】本文分析了当前全球人工智能治理现状及未来展望。人工智能是新兴的科技领域,人工智能全球治理在探索中进行。虽未明示,但作者对人工智能治理现状的描述大致暗含了人工智能治理的治理的三种类型和逻辑:基于AI使用主体的治理;基于伦理价值的治理和基于技术的治理,从而推导出不同的伦理与治理规范及实施路径。我们倾向于突出前二者,但正如作者最后所展望的,至少规范最终需要落实于人工智能的具体设计与研发过程之中,伦理化有必要建立在科学化、标准化、精细化基础之上。联合国区域间犯罪和司法研究所(UNICRI)于2017年设立了人工智能和机器人中心,以增进对人工智能、机器人和相关技术的了解,特别是对犯罪、恐怖主义和其他安全威胁的了解,目的是支持和协助联合国会员国了解这些技术的风险和益处,并探索如何利用这些技术促进实现一个没有暴力和犯罪的未来。总部位于荷兰海牙,现任中心主任即为本文作者之一Irakli Beridze。

3212D

一、核心观点

目前,人工智能的治理仍然是一个无组织的领域。涉及多个领域的多个利益相关者试图以他们认为会产生最佳结果的任何方向来影响人工智能的治理。各个组织之间存在着相互竞争的利益--例如,私营部门可能希望最小化可能减缓其技术发展速度从而制约其利润增长能力的立法措施。但公共部门可能会希望确保最大限度地提高公民的福利,并且在某些人工智能技术被广泛部署之前落实必要的预防措施。这只是一个简单的例子,现实中的张力和复杂性远不止于此。


然而,由于缺乏一个可以明确表明人工智能发展状况和治理质量的既定框架,在一定程度上阻碍了我们有效分析当前状况。当然,这一问题已经得到一些关注,并正在通过诸如以下的举措加以解决:人工智能指数(the AI Index),该指数旨在汇总各种指标,以促进关于人工智能进展情况的知情对话。以及政府人工智能准备度指数(Government Artificial Intelligence Readiness Index),该指数对194个国家和地区的政府在提供公共服务方面使用人工智能的准备度进行评分。确保有效的人工智能治理,最大限度地发挥人工智能技术的优势,如帮助实现联合国可持续发展目标(SDGs),同时最大限度地减少风险,符合各利益相关主体的长远利益。


19ED6


二、人工智能治理的倡议

1、私营行业主体

一些引领人工智能技术发展和部署的公司都采取了专门的举措来解决人工智能带来的问题。具有代表性的,如Google DeepMind公司在2017年成立的 "道德与社会 "研究部门,旨在帮助技术专家将道德付诸实践,并帮助社会预测和引导人工智能的影响,使其为所有人造福。有越来越多的公司在线发布他们的框架或原则,规范他们目前如何部署或打算部署人工智能系统。各家公司也一直在开发检测人工智能系统中的偏见的方法,例如IBM推出了一个工具,用于分析算法如何以及为什么实时做出决策。鉴于私营行业主体领导了许多前沿的人工智能研究和开发,这些治理努力是令人鼓舞的。因为许多公司认识到了这些治理问题,并且正在采取措施缓解问题,且许多公司在全球范围内开展业务,因此有必要对人工智能开发和应用的方法进行标准化,以支持国际人工智能长期的国际治理合作。

2、政府公共部门

目前,许多国家及地区的政府通过制定人工智能国家战略来解决人工智能的伦理问题。这些战略往往集中在长期的努力之上,所以现在评价什么措施对治理人工智能最有效还为时过早。当然,不同的国家或政府间组织,采取不同的治理路径。例如,欧盟框架是建立在“应对社会经济变化”、“建立适当的伦理和法律框架”以及高级别专家组的“伦理指南”等三大支柱之上的。英国试图成为伦理和规范的领导者,认为这些将为可能的立法或监管措施提供基础,但也着力形成软性规范。德国正在关注制造业中的人工智能,并着力促进向私营部门的技术转让。总的来说,尽管政府框架通常落后于技术发展,由政府发力迎头赶上,解决人工智能带来的当代关切,并制定举措,实现技术的福利最大化,让我们看到了人工智能治理的希望。

3、非政府、科研与多方利益主体组织

目前,有多个组织正在研究与人工智能相关的挑战,并努力确保该技术得到有效治理。依据他们的支持者和塑造人工智能治理的特定方面的能力,这些组织在不同的方面开展工作。如IEEE在2016年发布了“自主与智能系统伦理全球倡议”。该倡议的目的是确保参与设计和开发人工智能系统的研发人员能够优先考虑道德问题,并在此方面获得一定的教育和培训。该倡议最终制作出一本名为 《符合伦理的设计》"的工作手册,这是来自于学术界、市民社会、行业界、政策与政府各界的思想领袖集体写作的成果。

7FFE


三、规制

如前所述,虽然在效益最大化,并将人工智能的风险降到最低这一总体目标上达成共识,但是治理主体在什么是最有效的措施和如何实施上面,即立法实施和专门的监管人工智能的机构上面,存在分歧。


各国政府对限制和管制人工智能的发展可能会犹豫不决,担心会扼杀本国的创新,导致本国落后于国际竞争对手。


还应注意的是,人工智能的独特性给法律制度带来了一些挑战。事前监管是困难的,因为人工智能的研发可能是隐蔽的(几乎不需要物理基础设施),离散的(人工智能系统的组成部件的设计并未经过协同),分布式的 (广泛分散在不同的地理位置)和不透明的(人工智能系统的潜在有害特征可能难以评估)。事后监管也面临“责任真空”的挑战。因为人工智能可能以原设计者无法预见的方式行事,这可能会对哪个实体对无意或不可预见的伤害负责提出法律挑战。


然而,尽管存在这些挑战,许多人认为,政府监管仍然减少人工智能带来的公共风险所必要的。并且,鉴于人工智能的规模和变革性影响,监管应当是积极主动的,而非被动的。我们有充分的理由相信,法律机制可以在不扼杀创新的情况下减少人工智能的公共风险。因为法律体系拥有一个深厚的工具箱,利用这个工具箱能够妥善解决人工智能带来的问责和透明度问题。

8BC4


四、未来展望

尽管有了国家战略,但对许多国家来说,人工智能的治理方法仍然部分未定,还有更多的挑战有待解决。只有建立更多的对话机制,使各国能够更清晰地找到共同感兴趣和有争议的领域,才能真正实现技术的国际治理。在现阶段,与其实施一个涵盖人工智能每一个方面的全面框架,不如国际社会致力于建立一个狭义、明确的监管框架。在更广泛的全球框架出现之前,建立和制度化具体的人工智能治理机制以及在致命性自主武器系统、医疗保健、交通和一般人工智能安全等具体领域内的标准。


(一)技术与标准化的实施路径

世界各国在人工智能治理方面取得进展,还有更多工作要做。除了立法者,那些部署越来越复杂的人工智能系统的人可能也希望算法透明化,以了解系统如何得出他们的 "决定"。更精确的监管和更好的治理机制--对自主系统进行认证、解释和审计的方法--将有助于确保有关人工智能的伦理问题被系统回应和处理。其中一个例子是美国国防部的高级研究计划部门(DARPA),该机构启动了一个专门研究可解释人工智能系统的项目,因为“如果未来的战士要理解、适当地信任和有效地管理新一代的智能机器伙伴。可解释的人工智能--特别是可解释的机器学习--将是至关重要的。”


人工智能的全球治理体系应该得到认证工具和参与激励措施的支持。认证工具可以帮助促进国内和国际行为者对技术的必要信任。它们包括审计人员和监管人员用来评估人工智能实施情况的方法,如数据科学方法、算法设计和机器人硬件。创建这样的工具是一个重大的挑战,但如果没有认证的方法,有效的治理将是困难的。已经有一些初步的发展,例如IBM的公平性工具和DARPA的可解释AI项目。未来需要更多的技术工具来支持治理,以确保AI在部署时遵守监管框架。


有效的国际治理,如制定一个章程或公约,还需要激励措施来促进更多的利益相关主体的广泛参与。如果世界上许多国家没有参与设计和制定这种章程,那么这种治理机制就可能毫无意义,因为无法得到广泛的支持。鼓励广泛参与的激励措施,如技术共享、配置数据或者商业秘密、将有助于促进有效的治理和管理日益严重的技术不平等。


最后,人工智能的治理可以借鉴其他复杂的“两用技术”的治理模式和标准。诸如空间法、互联网治理、航空安全和《化学武器公约》等治理体系和法律表明,有效的标准可以促进创新和产业的蓬勃发展,广泛分享技术的利益,最大限度地降低公共风险,并确保必要的共识与框架到位。人工智能虽然拥有与这些不同的技术特征,这些治理框架不能提供一个确切的模板,但是已有的国际治理框架表明,即使存在分歧,技术的国际治理仍然能够找到一些共识基础。

965B


联系我们
  • 电话: 010-82339017 邮箱: beihangkexie@163.com 地址: 北京市海淀区学院路37号 邮编: 100191