公共政策
对欧盟《人工智能白皮书--迈向卓越与信任的欧洲的路径》的建议
2020年09月30日 11:25    作者:“Wonks And Techies”Group 翻译:张泽南    编辑:蔡诗涵

【编者按】欧盟委员会在2020年2月发布了《人工智能白皮书--迈向卓越与信任的欧洲的路径》,确立基于欧洲价值的监管与投资并重的AI发展战略,以激励促进卓越,以监管建立信任,解决AI应用带来的伦理及责任风险问题。欧盟委员会同时公开征求社会各界对该白皮书的意见。斯坦福大学“人类核心人工智能中心”报告首先回应了白皮书所阐明的基本主题及存在的空白,着眼于AI的广义风险和治理问题,随后转向AI发展所带来的工作和AI经济等领域内已知的不确定性问题,最后提出了欧盟应对AI不确定性的未来举措。报告希望能够引起人们对AI潜在的具体影响的关注,并指导决策者短期内的具体行动步骤。

4CA6



                                 

         

一、信任、透明和责任

(ON TRUST,TRANSPARENCY,AND ACCOUNTABILITY)

主要建议

01 

如果要将系统归类为“高风险”,需要对AI系统的各种潜在危害进行更加明确的区分,依据从高风险到低风险,从物质伤害到非物质伤害的图谱。无论可解释性的标准如何,审计都应在确定透明度和确保系统的责任制方面发挥重要作用。

02

随着欧盟继续制定有关自动决策系统和其他机器学习应用程序的法规, 公民数据和隐私保护的审核必须内嵌入AI的研究,设计和生产的全过程。这些审核应当是审计过程的一部分,需要更加明确的定义以确保将风险管理制度化,降低危害风险,增强信任和问责制。

03

就像规制透明度的规则一样,当AI应用对安全构成高风险时,“充分和可获取的救济”标准是必须的。对高风险系统的“事前”监管可能要求系统在具体实施之前满足认证要求。

04

在使用新技术和新的数据集进行AI开发和部署之前,应定期对其进行认证。

05

为了帮助监管机构确定适当的问责机制,“AI问责法案”可以建立针对各种法律的合规机制,以使欧盟能够对AI系统进行检查和调查。 “AI问责法案”既可以巩固风险管理程序,又可以激励人们遵守建立AI系统安全性、信任度、透明度和问责制的强制性要求。

06

针对AI系统安全可信的部分要求可以通过供应商和潜在的AI系统运营商采用的详细的“偏见影响声明”(Bias Impact Statements)来实现。

07

为了确定可能造成不当伤害的AI系统的责任,“损害”的适当定义应考虑援引《欧盟基本权利宪章》第7条的尊严权利。欧盟将尊重相关人权纳入产品责任体系之中。

08

欧盟委员会以及欧盟成员国政府应首先进行利益相关者参与活动,并展开其他方式的公众咨询。

09

我们建议建立欧洲议会的AI委员会,该委员负责成员国内部和成员国之间的实施活动,同时成立AI监督委员会来监督AI委员会制定的实施准则。

10

我们建议成立欧洲AI咨询委员会,负责指引AI在公共机构的部署和应用。该咨询委员会还应建立向上述欧洲AI议会间委员会提出咨询和共享信息的渠道,以协助制定和实施公共部门AI系统使用原则。

5149



                                 

         

二、人工智能对生产、技术和劳动力的影响

(AI IMPACTS FOR PRODUCTION,SKILLS,AND LABOR)

核心建议

01

欧盟可以做的一项工作是制定一个政策战略,以更全面地促进生产数字化,重点关注目前数据、计算能力和数字化比较落后的行业部门。

02

改善其在人工智能方面的公私投资是欧盟政策的关键。这些举措必须着眼于包容性创新,以改善多数人而非少数人的生活为理念。为了实现这一目标,欧盟可以建立专门的资助竞争机制,以激励和奖励更具包容性和公平性的技术发展。

03

为了保护工人的权利,欧盟有必要制定一套规则,以规制在招聘和管理决策中的AI应用。

04

需要明确的是,有很多工作是无法自动化的,这些工作在未来会有更高的需求,包括需要个人沟通、同理心和创造力的工作。在欧盟白皮书的框架内,欧盟委员会应该制定一个具体的目标,以促进这类技能的发展,并扩大以这些技能为重点的教育项目。

05

欧盟还应考虑对旨在延长老龄人口和残疾工人工作寿命的人工智能项目进行投资。

06

欧盟所寻求和促进的AI技术, 其生产能力不应仅以效率来衡量,生产过程和最终产品的质量应被纳入评价体系,当物理需求已被自动化,AI应当能够创造新的工作需求。

07

AI工作机会的扩大将需要加大对大学、教育中心和在线教育项目的投资,特别是为了留住处于职业生涯中期的员工。培训项目应当包括适应人工智能工作所需的技能,如人工智能系统的生产和操作。这将意味着欧盟大学联盟需要共同投资来扩大与人工智能相关领域的研究生课程,欧盟也应当扩大欧洲研究资助项目来吸引欧盟外的学生。

08

为了加快学科专家对人工智能技术的采用,欧盟可以开发一系列在职培训项目,以促进工人获得相应技能。



                                 

         

三、广泛采用人工智能的未知风险

(UNKNOWN RISKS FOR WIDESPREAD AI ADOPTION IN THE EU)    

01

欧盟可以做的一项工作是制定一个政策战略,以更全面地促进生产数字化,重点关注目前数据、计算能力和数字化比较落后的行业部门。

02

修订后的“人工智能协同计划”应扩充要求项目C(“信息提供”)以包括关于涉及人工智能的自动化偏见、军民两用和恶意应用的培训。

03

修改后的“人工智能协同计划”应该考虑进一步发展面向大众的包括基本术语、发展计划、假设和风险的培训。该计划应该考虑对话,从而使科研人员能够走出实验室,走进社区。

04

需要明确的是,有很多工作是无法自动化的,这些工作在未来会有更高的需求,包括需要个人沟通、同理心和创造力的工作。在欧盟白皮书的框架内,欧盟委员会应该制定一个具体的目标,以促进这类技能的发展,并扩大以这些技能为重点的教育项目。

05

考虑到机器学习可能导致错误和偏见,因此需要分层测试,包括对系统迭代的测试。人工智能系统之间可以彼此学习或比对。在部署前,这一需求可以发展成对系统连续性、兼容性的评估的环节,以在更复杂的测试环境中满足需求,并通过设计和风险预防提高安全标准。

06

为了执行联合军事试验和作战,必须重新验证欧盟的数字化兼容能力。目前成员国之间的能力是不同步的,因此,必须建立在军事行动中使用人工智能的标准以确保新发展不会妨碍到系统兼容。

07

在将人工智能的研发应用于军事武器系统的情况下,进攻和防御系统应做区分。欧盟应开展一项研究来确定自动化程度的提高将在哪些领域有利于基础设施,哪些领域则会削弱基础设施。

08

任何能够开展网络攻击的地方也可以通过AI实现攻击,其中人类的决策权必须是绝对的。为了保持对军事AI工具的控制力度,建议欧盟应强化人类控制的能力,并与一个国际机构(例如《塔林手册》)积极协同此系统目的。我们进一步建议欧盟内部应当平等分配AI的能力。



                               

       

四、结论

(CONCLUSION)

我们希望看到欧盟在AI研究、开发和部署方面的平等配置。我们鼓励采取措施提高公众的AI认知,培训和素养以应对AI的进步,并建议在数据驱动的未来创造新的职业。这些建议应在整个欧盟范围内由杰出的跨学科专家合作予以实施,以解决与AI硬件和软件的开发和贸易,合作以及能力变化有关的动态政策的实施。我们提交这些建议供您考虑,并期待欧盟委员会的评论。

联系我们
  • 电话: 010-82339017 邮箱: beihangkexie@163.com 地址: 北京市海淀区学院路37号 邮编: 100191