公共政策
给欧盟委员会的《人工智能白皮书》的建议
2020年09月29日 20:43    作者:Amba Kak, Rashida Richardson, Roel Dobbe 翻译:张姝宇    编辑:蔡诗涵

218FF

【编者按】 欧盟委员会在2020年2月发布了《人工智能白皮书--迈向卓越与信任的欧洲的路径》,确立基于欧洲价值的监管与投资并重的AI发展战略,以激励促进卓越,以监管建立信任,解决AI应用带来的伦理及责任风险问题。欧盟委员会同时公开征求社会各界对该白皮书的意见。AI NOW是纽约大学的一家智库型研究机构,致力于研究人工智能和算法技术的社会影响。AI NOW入选美国宾夕法尼亚大学《2019年度全球最佳人工智能类智库榜》。本报告即为AI NOW 对欧盟AI白皮书中的关键政策和监管建议所做出的回应。


                             

一、报告主要内容


本报告旨在对欧盟发布的《人工智能白皮书》中的几个关键点做出回应,主要包括以下几个部分:


(一)欧盟“促进人工智能研发”策略


(二)人工智能的未来规划框架


1. 与现存法律框架的关系

2. 定义、范围和风险评估

3. 影响评估框架

4. 文件记录、透明度和信息提供

5. 人类监督

6. 生物识别与认知影响

7. 产品质量与产品责任

(三)政府部门的人工智能应用与公共采购准则

                             

二、报告摘要


01


与人工智能相关的欧洲工业战略应由这些技术的社会影响所引导。欧盟委员会不应无差别地发展“更多的人工智能”,而应当以这些技术的社会和环境影响为基础制定政策,如:


技术如何实现?


哪些社群可能获益、哪些可能承受偏见、剥削或是受到其他伤害?


在能够完全证明之前,我们不能先假定人工智能技术是亟需的或是有益的。


02


洲的人工智能战略应当将人工智能系统和数字基础设施的环境影响作为政策考虑的优先项。法规应当要求云服务的碳足印公开透明,以使得所有组织都能够计算自己的数字化和人工智能的碳足迹。除此之外,应该禁止人工智能在石油勘探和生产中的使用。


03


欧盟提出的“风险”本位的人工智能监管路径值得商榷。不论在人工智能应用的哪个领域,监管范围的确定都应基于人工智能系统的特性和影响,而非欧委会所依据的区分“高风险”AI应用和“低风险”应用,将规制重点放在前者。

82A8

《一般数据保护条例》(GDPR)第22款所规定的“法律或类似的重大影响”这一标准的覆盖面过窄,所以我们建议加入更多的描述性原则,如将所有 “对个人、团体或社群的机会、获取资源能力、自由、权利或安全产生影响”的人工智能系统均纳入监管范围内。

04


部署人工智能系统之前,应先进行算法影响评估(AIA),以帮助我们了解该系统是否(以及如何)被使用。如果人工智能在公共领域的使用被证明将产生偏见和危害,包括但不限于预测型警务、儿童福利预测分析、审前风险评估和公共利益决策系统,应当考虑延期使用或施加其他限制措施。

05


为了能够让公众公平有效地参与算法影响评估(AIA),政府部门应当考虑主动采取措施以解决财政和能力方面的障碍,包括向被任命为决策机构成员的社区成员提供经济报酬,以及提供包容性教育机会。

06


算法影响评估(AIA)应当考虑人工智能系统是否具备人类监督的条件和能力,包括来自受到这些人工智能系统直接影响的人群的监督。对于人工智能系统的人类监督不应基于“完全自动化”和其它的二元分类体系。对于因技术特征或知识与能力限制而不适用人类监督的人工智能系统的使用应当受到严格限制,尤其是在敏感的社会领域。

07


监管框架应当确保外部研究人员和审计人员能够访问人工智能系统以更好了解它的工作原理,发展和商业化的设计选择和动机,以保证公众和受影响群体对的过程参与。

有效的访问包括向第三方审计开放软件工具链和应用接口(API)的审计。还应该包括对商业机密、知识产权和信息获取法律的审查,这些法律的运作阻碍了问责制,并保护公司的秘密。

08


政策制定者应当中止所有面部识别在敏感的社会和政治领域中的应用,包括执法、教育和就业。立法者应当在中止的同时配套以下制度:


(1)透明度要求。透明性能够帮助研究者、政策制定者和社群接触并理解限制和规制面部识别的最优方案;


(2)保护政策,能够让应用智能技术的社群进行自行评估,以决定是否拒绝部署。


由于其科学依据存在争议,又有迹象表明能够加剧种族和性别偏见,情感识别技术应当被禁止应用于所有影响人们生活和机会获取的重要决策。


152D5


09


品安全法不足以解决人工智能系统在关键基础设施和敏感领域应用的安全风险,相反,监管应当聚焦在系统安全,并借鉴安全性至关重要的航空航天和核能工程领域的标准,这些领域具有与复杂机器共处的长期经验。

鉴于现今的人工智能安全研究过于狭隘地专注于技术细节,欧盟委员会应支持能够解决人工智能系统安全问题所有关键方面的研究和开发,包括技术的和实践的。

10


府部门不应采购或使用那些因商业机密或保密要求而不能接受独立验证、公众审查、法律挑战的人工智能。此外,采购合同条款应该包括:


(1)包含具体的商业秘密豁免条款;


(2)由供应商为政府工作人员提供培训模块,以帮助理解系统并开发公共教育材料;


(3)限制宽泛的赔偿条款;


(4)要求进行验证研究;


(5)规定公开、竞争性的招标程序。


联系我们
  • 电话: 010-82339017 邮箱: beihangkexie@163.com 地址: 北京市海淀区学院路37号 邮编: 100191