顶刊编译 | 以科学为锚:推动基于证据的AI政策治理
文章介绍
Bommasani, Rishi, Sanjeev Arora, Jennifer Chayes, Yejin Choi, Mariano-Florentino Cuéllar, Li Fei-Fei, Daniel E. Ho et al. “Advancing science-and evidence-based AI policy.” Science 389, no. 6759 (2025): 459-461.
前言:我们需要“科学的AI政策”
2025年7月31日,《Science》杂志刊登了一篇由斯坦福、普林斯顿、加州大学伯克利分校等机构的专家联合撰写的政策评论文章——《推动以科学与证据为基础的AI政策》(Advancing science- and evidence-based AI policy)。文章并未重复常见的伦理呼吁或技术焦虑,而是提出一个被长期忽视的核心问题:我们是否真的在用科学证据指导AI政策?面对技术快速演进与制度滞后的普遍矛盾,作者呼吁政策制定者正视这样一个事实:只有将政策建立在可信、系统、可验证的证据基础之上,AI 才有可能以负责任的方式释放其广泛潜力。
01 政策为何不能“凭感觉”?
近年来,欧盟积极推动AI治理法规的系统化、严格化,而美国前政府则强调“技术主导权”,倾向于更宽松的创新鼓励模式。但无论何种路径,都面临着同一个困境:在科学证据尚未明朗的情形下,政策该如何有效落地?这就是政策领域常见的“证据困境”:行动过早可能造成干预过度甚至错误决策,等待全面证据又可能错失治理窗口期。
历史上,“证据”本身也曾被滥用为拖延政策行动的工具。烟草企业利用科学上的不确定性,延缓控烟政策出台;石油巨头则曾隐瞒气候变化的内部研究,以误导公众和决策者。AI治理同样面临类似挑战:在信息传播、医疗诊断甚至司法援助等领域,如果政策停留于口号或直觉,缺乏明确且可验证的证据支撑,就可能沦为毫无实效的空洞治理。
AI技术迅速发展带来的风险和不确定性,早已超出传统治理方式所能应对的范围。《Science》文章因此指出:“基于证据的AI政策”不仅意味着使用现有的科学研究成果,更需要政策本身主动推动新证据的产生。这种从被动“用证据”到主动“造证据”的角色转变,也许正是我们应对AI治理难题的最有效路径。
正因如此,我们需要更明确地厘清:我们到底需要什么样的证据?当前又有哪些证据可用?政策又该如何推动这些证据的积累?
02 证据从何而来?三问厘清政策方向
文章提出了三个核心问题,以厘清“证据——政策”之间的动态关系:什么样的证据才算可信?我们目前有哪些AI风险的证据?政策如何促进更多证据的生成?
1 证据究竟该如何指导AI政策?
不同领域对“证据”的理解各异:医学强调随机对照试验(RCT),经济学则重视理论模型与数据观测的结合。AI技术具有显著的跨学科特性,不仅涉及计算机科学或工程技术,也关系到信息传播、法律责任、经济公平和伦理问题。因此,如果政策制定者不能明确“有效的证据标准”,很容易陷入主观判断和随意决策。
作者特别提出一个关键概念,即“边际风险”(marginal risk)。简单说,就是AI技术相比现有的成熟技术可能额外带来的新风险。例如,当我们习惯使用AI聊天工具、自动写作软件时,AI生成的信息可能看似真实,却存在内容虚构或错误,这种“额外风险”正是AI治理的关键关注点。只有精准聚焦这些边际风险,才能真正厘清什么问题是由AI新技术带来的,需要额外关注和治理。
2 目前我们关于AI风险究竟掌握了哪些具体证据?
文章介绍了一份权威的全球报告——由图灵奖获得者Yoshua Bengio领衔编撰的《国际AI安全科学报告》。该报告借鉴联合国IPCC气候报告模式,由全球96位专家独立撰写,依据原创性、影响力和透明性三个标准,系统整理AI领域的风险证据。报告将AI风险划分为三类:
- 恶意使用风险:例如利用AI伪造语音进行诈骗、辅助设计生物武器;
- 系统故障风险:例如AI模型在医疗或招聘中产生偏见、生成错误信息;
- 系统性社会风险:例如AI对劳动市场造成规模性失业,对版权保护造成冲击。
报告指出,目前诈骗、侵犯隐私、内容偏见等风险已有较明确的证据;但AI对就业市场冲击、助力生物武器等问题,学界尚未达成共识。这种不确定性表明政策制定者不能盲目等待,而应积极推动证据的积累与深化。
3 政策该如何反向促进证据生成?
面对不确定性和潜在风险并存的AI现实,政策制定不能只是被动等待科学共识,而应主动推动证据生成。文章强调应建立一个“评估——反馈——透明——修正”的制度闭环:政策实施后及时进行科学评估并反馈风险信息,再向公众透明披露,最终不断调整政策措施。
例如,在AI模型的风险管理中,可以要求企业公开透明的安全测试数据,建立独立的第三方评估机制,制定标准化的AI事故通报制度。这种设计可以确保政策本身成为不断产生和积累真实证据的机制,让AI治理建立在扎实、可验证的基础上,而不是主观判断。
03 六个机制推动政策与证据良性互动
如何让政策本身变成科学证据的生成引擎?针对这一关键问题,文章提出了六条具体的策略建议:
1 第一,AI模型发布前的严格风险评估
AI开发者发布新模型前,应主动进行风险测试,并引入可信的独立机构复核结果,以确保评估客观、公正。
2 第二,安全机制与治理信息的透明共享
企业不应仅向政府部门披露AI安全与治理信息,还需通过立法或行业标准,向公众和学术界公开安全框架与风险评估结果,强化公众监督。
3 第三,部署后的社会影响监测体系
借鉴网络安全事故报告制度,建立“AI事故通报平台”,明确事故报告标准、责任主体及响应机构,及时追踪和应对AI广泛应用后的潜在社会风险。
4 第四,为独立研究提供法律保护的“安全港”
当前AI平台多禁止第三方越权测试。文章建议设立明确的法律保护机制,为独立研究者提供安全港,鼓励风险研究,推动更多证据发现与反馈。
5 第五,优先实施有实证支持的风险干预措施
AI治理不只局限于技术本身,应针对具体风险有效干预。如AI生物武器风险需加强生物材料供应链管理;防范AI网络攻击应注重软件安全和网络供应商责任。
6 第六,建立全球性的AI科学共识机制
目前AI社区对风险评估与治理策略尚无共识。作者建议借鉴联合国IPCC模式,由国际机构牵头建立开放、独立的全球“AI科学共识平台”,为政策提供长期稳定的科学依据。
04 结语:AI治理的未来,取决于我们如何“共同举证”
在AI技术深刻改变人类社会的当下,这篇文章最核心的启示是:治理人工智能不应停留在伦理呼吁或模糊的原则宣示,而必须从根本上依靠科学证据。证据不再只是政策的附属或旁观者,它本身应成为AI治理体系的关键组成部分。
科学的真正力量,不仅仅是解释世界,更是要帮助我们理性地管理和界定技术发展的边界。当AI技术变得越强大、影响力越广泛,我们越需要真实、透明、可验证的科学证据来引导决策、规避风险。
未来的AI治理,不再是少数专家或机构的任务,而需要政府、企业、学界乃至整个社会的协力参与。唯有建立一种开放且持续的“共同举证”机制,让证据与政策相互推动、彼此检验,才能真正实现对人工智能负责任、可持续的治理与应用。