欧盟和美国在人工智能监管方面存在分歧:跨大西洋比较和协调步骤
导读
该文章讨论了欧盟和美国在AI监管方面的差异,强调了美欧截然不同的治理逻辑。欧盟强调保护基本权利以及严格的合规机制,而美国则优先考虑创新和相对自由的管理模式。这种分歧影响了美欧之间在AI发展方面的合作。报告建议建立欧盟-美国联合AI监管对话,促进其AI法规之间的互通性,并就国际AI标准开展合作,以在全球AI治理中更好地协调和共享价值观。
作者简介
作者简介:亚历克斯·恩格勒(Alex Engler),布鲁金斯学会研究员、欧洲政策研究中心副研究员、乔治城大学兼职教授和附属学者、MDRC数据洞察中心高级咨询数据科学家,主要研究人工智能和新兴数据技术对社会和治理的影响。曾在芝加哥大学和约翰霍普金斯大学任教。
文章来源
Angler, A. (2023, June 24). The EU and U.S. diverge on AI regulation: A transatlantic comparison and steps to alignment.Brookings.Retrieved December6,2023,from https://www.brookings.edu/articles/the-eu-and-us-diverge-on-ai-regulation-a-transatlantic-comparison-and-steps-to-alignment/
智库介绍
布鲁金斯学会(Brookings)是一个美国的非营利组织,宗旨是开展深入、无党派的研究,以改善地方、美国和全球层面的政策和治理。布鲁金斯学会致力于通过开放式的探索、多元化的视角以及最高标准的学术严谨性,为社会挑战寻找大胆、务实的解决方案,以此,布鲁金斯一直站在公共政策领域的前沿。
来源:
https://www.brookings.edu/about-us/
一、摘要
欧盟和美国在AI治理方面有着重要的影响。确保欧盟和美国的人工智能风险管理方法总体一致将促进双边贸易、改善监管并促进更广泛的跨大西洋合作。
美国AI风险管理由多个机构分散负责,而欧盟则依赖更为全面的法规指导。尽管在基于风险的方法、可信赖AI的原则以及国际标准方面存在共识,但欧盟与美国在具体的AI应用方面存在显著差异。
欧盟-美国贸易和技术委员会在AI方面取得了一些成果,例如在值得信赖AI的指标和方法方面达成了共同理解。双方还同意在国际AI标准和新兴AI风险和技术方面进行合作。
后续,欧盟与美国可继续采取更多举措以改善和协调人工智能治理。例如在监管计划、法律框架、在线平台治理、知识共享、标准制定、AI沙盒、研究项目、监管机构交流和AI保障生态系统方面进行合作。
二、引言
受新兴法规、监管监督、民事责任、软法和行业标准的影响,AI风险管理的方法正在成为国际外交和贸易政策的关键一环。除了鼓励整合技术市场外,国际上更一体化的AI治理方法可以强化监管监督,引导研究解决共同挑战,促进最佳实践的交流,以及实现值得信赖AI开发工具的互操作性。
在这一领域尤为影响深远的是欧盟和美国,两者目前都正在实施足以奠定未来AI风险管理基础的政策。这些治理方法涉及到国际影响较大的各种AI应用,包括消费产品中更复杂的AI、受监管的社会经济决策中AI的广泛应用、在线平台中AI的扩展,以及公共面向的网络托管AI系统,如生成AI和基础模型。
三、美国AI风险管理办法
美国AI风险管理方法具备三个特点:基于风险,针对行业,分散于机构。这种方法具备优势,但也导致了AI政策的不平衡。白宫发布的一些指导文件尚未形成一致的AI风险管理方法。
a) 第一步:2019年2月的行政命令(EO 13859)、管理与预算办公室指南(M-21-06)
这两份文件提出了一种基于风险的方法,强调要识别和减轻AI工具失效的后果,并通过监管和非监管手段保证AI的能力、公平、透明和安全。它们也要求机构制定AI应用的监管计划。
b) 唯一AI计划:卫生与人类服务部
涵盖了AI系统的授权、信息收集和新兴用例,其重点展示了如何规划和向公众提供信息。
c) 拜登政府:“AI权利法案蓝图”
本法案蓝图阐述了AI对经济和公民权利的危害,提出了缓解这些危害的五项原则,并给出了联邦机构的行动清单。其支持一种基于行业的AI治理方法,依赖于相关联邦机构的行动,但此文件仅为非约束性的指导。
AI权利法案蓝图没有直接要求联邦机构缓解AI风险,且各机构的响应程度不一。大多数联邦机构只能调整其现有法定权力来适应算法系统,例如联邦贸易委员会、就业机会均等机会委员会和消费者金融保护局,暂无机构能够执行所有的原则。
d) 消费级产品监管
食品和药物管理局致力于将AI纳入医疗设备,发布了最佳实践和AI行动计划。消费产品安全委员会研究和跟踪消费品中的AI危害,并考虑采取政策干预措施。但交通部取消了半自动和全自动汽车的监管要求。
e) 减轻AI风险的基础设施投资
其中最重要的是国家标准与技术研究所出台的AI风险管理框架,指导了在AI生命周期中管理风险的方法。该框架已伴随案例研究和手册发布。同时,该机构还评估和报告了人脸识别算法的准确性和公正性。
其他政策行动也解决了一些算法危害,并为未来的机构准备工作,例如国家AI咨询委员会、数据科学家招聘项目、国家AI研究与发展战略计划和国家AI研究资源项目。此外,一些州制定了法律应对算法危害,但也可能导致法律优先权问题。
四、欧盟AI风险管理办法
基于已有和新颁布的法规,欧盟AI风险管理采取了复杂多层次方法,例如GDPR、数字服务法、数字市场法和AI法案等。其根据不同的数字环境,制定了不同的监管方法,对AI的重视程度也不同。
a) GDPR
GDPR中有两个与算法决策相关的条款:一是禁止没有人类监督的算法系统做出影响法定权利的决定,如优步被迫恢复被算法解雇的司机;二是保障个体对算法系统“逻辑且有意义的信息”的权利,但这一条款的实施效果尚不明确。
b) AI法案
本法案是欧盟AI风险管理的重要部分,其将AI系统分为四种风险等级:不可接受的风险、高风险、有限风险和极低风险,对应不同的监管措施。其中,高风险AI系统包括受监管的消费者产品和用于影响深远的社会经济决策的AI,二者必须符合一系列的标准,并提交符合性评估文件。此外,欧盟还考虑对如大型语言和图像模型的通用AI系统开展新的监管要求。
欧盟的AI风险管理方法综合了法规和区别对待的原则,旨在保护算法决策、促进高风险AI应用的透明度和社会责任,以及加强对数字市场和在线平台中AI影响的监管。欧盟还计划制定AI责任指令,为新兴科技的可持续发展提供法律框架。
五、欧盟与美国AI风险管理办法对比
两者都支持基于风险的AI监管,并有相似的可信AI原则。但在风险管理上,两者有很大分歧。欧盟的监管范围更广泛,更集中,更严格;而美国的监管范围更狭窄,更灵活,更依赖行业自律。欧盟的监管也更透明,更有利于公众和研究人员了解AI的角色和影响;而美国的监管则更注重投资AI研究,以开发新技术。
这些区别可能导致未来的一致性难题。欧盟和美国之间的消费者产品贸易可能有助于在AI监管方面实现一致性,因为许多美国产品已经符合欧盟的产品安全规定。但在一些领域,如在线平台、聊天机器人、面部识别和生成AI,欧盟和美国的立法和政策对话仍然存在差距。
六、欧盟-美国贸易和技术委员会:AI风险领域合作
贸易和技术委员会(Trade and Technology Council, TTC)是欧盟与美国旨在加强贸易和技术合作的平台。在2021年的首次部长级会议上,TTC强调AI合作,重点关注三个领域:评估值得信赖的AI、开发注重隐私的AI技术、以及研究AI对劳动力市场的影响。
1. 2022年1月,TCC《关于值得信赖的AI和风险管理评估和测量工具的联合路线图(TTC Joint Roadmap on Evaluation and Measurement Tools for Trustworthy AI and Risk Management)》发布美欧合作三部曲:
– 建立值得信赖的AI的共同术语,开发相关矩阵和方法论的知识库,特别注意到利用包括OECD-NIST Catalogue of AI Tools and Metrics在内的现有工具。
– 与国际标准机构在值得信赖的AI上合作。美国承认欧盟标准在AI法案中的重要性;欧盟也认识到为AI风险管理法规开发标准将需要大量资源,将与国际标准化组织和国际电工委员会的标准共创,同时正在审查电气电子工程师学会的相关标准
– 跟踪和分类AI风险,并对AI系统进行兼容评估,是在AI风险管理策略上的起步。
2. 欧盟与美国计划针对健康和医学领域试点隐私增强技术(Privacy-Enhancing Technologies,PETs)
PETs,如联合学习和安全多方计算,允许在保护隐私的同时进行大规模数据分析。它们在医学成像、社交媒体分析等方面有应用。此外,欧盟和美国还在探索在气候预测、农业等领域的AI联合研究项目。
3. 联合发布关于AI对劳动力市场影响的报告
该报告指出了一系列AI带来的挑战,如AI可能取代以前不受自动化威胁的高技能工作,以及AI系统本身可能存在歧视、偏见或欺诈。报告建议资助适当的职业转型服务,采用对劳动市场有益的AI技术,并投资于监管机构,以确保公平和透明的AI招聘和算法管理实践。
七、跨大西洋AI风险管理新挑战
在欧盟、美国乃至全球范围内,许多挑战都同时存在于AI风险管理上,包括数字政策问题。欧盟和美国在AI监管方面主要面临以下新兴挑战:
1. 社会经济决策规则的发展不一致
欧盟AI法案允许对AI系统拥有广泛监管权,覆盖多种类型的AI系统,并普遍允许执行欧盟原则。但美国机构受限于现有法律适应AI系统,仅涵盖欧盟AI规则中的部分原则。
而标准领域的合作不一定会消弭发展差异。欧盟AI法案要求快速制定多种标准,甚至可能会在美国参与标准制定之前就做出决策。但同时,部分监管社会经济决策的美国监管机构可能没有与美国国家标准与技术研究院,或包括ISO/IEC和IEEE在内的国际标准机构存在密切合作。尽管如此,为了能够在欧盟竞争,美国公司仍可能会满足欧盟的高标准。目前,许多用于社会经济决策的AI模型已经根据特定地区和语言进行了“定制”,减少冲突的国际法规带来的危害。
2. 在线平台挑战
欧盟的数字服务法案和数字市场法案对社交媒体、电子商务和线上平台的AI产生重大影响,而美国这些领域关于AI的立法相对落后。对于平台来说,欧盟和美国的双重监管会使得治理和运营失衡。此外,TTC 中没有就平台政策或相关AI系统的更密切合作的明确途径。
3. AI部署趋势转变
新趋势包括多组织AI开发(multi-organizational AI development)和技术扩散(边缘和联邦机器学习, edge and federated machine learning)。通过API和云服务提供的大型AI模型引发了关于集成和遵守像欧盟AI法案这样的法规的担忧。这些模型的远程访问和国际开发可能使遵守特定监管要求变得复杂。
AI价值链更加复杂,尤其是大型AI模型,如语言和图像模型。这一趋势带来集成方面的挑战,尤其是在不同监管环境下,远程使用如何保持AI系统的稳健性。与之相似,边缘和联邦机器学习可以在众多设备上实现AI开发,这可能会导致国际监管冲突,尤其是在医疗保健等高度受监管的行业。
八、结论和政策建议
1.美国应执行联邦AI监管计划,并利用这些计划设计战略性AI治理,着眼于欧美的一致性。
2.欧盟应为《欧盟人工智能法案》的实施创造更多灵活性,完善法律并促进未来的欧美合作。
3.美国需要实施在线平台治理的法律框架;但在此之前,欧盟和美国应致力于共享推荐系统和网络算法,并在线上平台领域开展合作研究。
4.美国和欧盟应在多个层面深化知识共享,包括标准制定、AI沙盒(AI sandboxes)、大型公共AI研究项目和开源工具、面向监管者的交流以及开发AI保障生态系统。
编译|钱靓、陈沛羽
编辑|吴思培
审核|智库编审委员会
点击阅读原文:https://mp.weixin.qq.com/s/6cxELd6NrAFZnd1PQUvCOg