顶刊编译|非国家行为体在全球人工智能治理中的民主角色
文章介绍
Erman E, Furendal M. The democratic role of non-state actors in the global governance of artificial intelligence[J]. Critical Review of International Social and Political Philosophy, 2025: 1-26.
人工智能的全球治理正面临严峻的民主危机,而将非国家行为体引入此类过程通常被认为可以解决民主问题。令人惊讶的是,非国家行为体在全球AI治理中的民主作用,却在很大程度上被忽视了。本文通过首先阐明非国家行为体在什么条件下作为民主代理为全球AI治理的实际民主化做出贡献,其次阐明在什么条件下它们反而通过行使民主推动者的权力为未来的民主化加强前提条件。我们的结论是,尽管很少有非国家行为体被授权成为民主代理,但它们行使“道德权威”、“认知权威”和“市场权威”的能力可以使它们成为合法的民主推动者。
01 问题的提出与背景
经过十年AI发展的突飞猛进,政策制定者正争相在地方、国家和全球层面建立监管框架。由于AI技术的风险和益处不受国界限制,有效的全球协调显得尤为紧迫。当前的全球AI治理体系是一个由部分重叠且多样的治理安排组成的制度复合体,缺乏明确定义的中央机构或等级结构。这一体系面临两大核心问题:一是”治理赤字”,表现为全球在关键问题上缺乏共识、监管存在空白以及现有协议大多不具有约束力;二是更为关键的”民主赤字”,即全球层面的治理机制难以实现民主标准:让受决策影响的人在平等基础上对决策拥有发言权。
传统观点认为,引入非国家行为体(如非政府组织、倡导团体等)可以缓解全球治理中的民主赤字问题。这些组织被认为能够代表公民利益、确保利益在国际决策过程中得到体现,并充当监督者角色。然而,这一观点忽视了全球AI治理领域的特殊性——参与治理的非国家行为体不仅包括公民社会组织,还包括开发待监管AI技术的跨国公司。这些科技巨头拥有巨大的经济资源、技术专长和市场影响力,其参与可能带来新的民主挑战。本文旨在系统分析非国家行为体在全球AI治理中应扮演的民主角色,填补现有研究的空白。
02 非国家行为体的三种权威
要理解非国家行为体在全球AI治理中的作用,首先需要分析其行使的权威类型。我们识别出三种关键权威形式
1 道德权威
这类非国家行为体以广泛的道德或人道主义使命为驱动,参与AI治理旨在追求符合伦理的目标 。它们通过提出道德主张,塑造公众舆论并影响AI开发和部署相关的决策,扮演着“规范倡导者”的角色。例如,AlgorithmWatch 作为一家非营利组织,致力于监督、分析自动化决策系统及其社会影响,促进AI治理的透明度、问责制和民主控制。
2 认知权威
指的是在特定领域内,提出知识主张并定义可接受证据的权力,主要体现在专业知识和技术创新能力上。拥有认知权威的非国家行为体,如研究实验室,能够影响知识的生产与传播、塑造公众对AI的理解以及相关的政策决策 。例如,DAIR(分布式人工智能研究所) 致力于独立、社区化的AI研究,旨在推广不同于行业资助的AI伦理方法,并提出为AI训练数据集附带“数据表”以增加透明度和减轻偏见 。
3 市场权威
场行为体和机构在塑造经济和政治决策与结果方面所拥有的权力即为市场权威 。当前AI发展集中于少数大型跨国公司,它们的巨大经济规模和潜在生产力优势转化为显著的政治影响力 。例如,微软 通过收购Github、投资OpenAI等,极大增强了其在AI开发领域的控制权和对治理的隐性影响 。此外,像由多家科技巨头共同创立的AI合作组织(PAI) 也能通过联合行动影响政策制定和公众教育 。值得注意的是,标准制定机构(如ISO、IEEE SA、CENELEC)也获得了全球AI治理中的关键作用,它们为AI领域的核心术语提供定义,并对法规的制定产生深远影响 。
这三种权威类型在实践中常相互交织。例如OpenAI同时具备认知权威(研究能力)和市场权威(商业产品),并试图主张道德权威(伦理承诺)。
03 民主角色的二元区分
非国家行为体在全球AI治理中可能扮演两种本质不同的民主角色:
1 民主代理
直接参与决策过程,其权威来源于民主授权链条。这类角色需要通过正式制度安排获得授权,如国际条约或政府间协议委托的权力。成为民主代理需要满足两个条件:一是追求正当目的;二是权威来源于受决策影响者的制度化授权。
2 民主推动者
不直接参与决策,而是通过强化民主价值为未来民主化创造条件。这类角色通过提高透明度、促进公众参与、增强问责制等方式,为更民主的治理奠定基础。其贡献不在于当下的决策参与,而在于培育长期民主化所需的条件。
这一区分至关重要,因为两者对民主化的贡献机制不同。民主代理直接影响决策的民主质量,而民主推动者则间接改善民主化的社会环境。混淆两者可能导致错误评估治理体系的民主程度。
04 非国家行为体作为民主代理的局限性
当前全球AI治理中,真正符合民主代理标准的非国家行为体极为有限。要成为民主代理,组织必须通过民主程序获得直接授权,或由民主机构委托权力。实践中,大多数参与AI治理的非国家行为体缺乏这种制度化的民主授权。以AI合作组织(由科技公司组成)和全球人工智能伙伴关系(GPAI,属于政府间倡议)为例。尽管两者目标相似,但只有GPAI符合民主代理标准,因为其权威来源于成员国议会的授权。而AI合作组织的成员资格和决策过程缺乏民主基础,其影响力主要来自市场地位而非制度授权。
即使是拥有道德权威的公民社会组织,如AlgorithmWatch,目前也难以成为真正的民主代理。虽然它们追求的目标符合民主价值,但缺乏代表受影响群体的制度性授权。这意味着它们的主张虽然可能具有道德合理性,但不具备民主正当性。科技公司作为民主代理的局限性更为明显。其市场驱动的本质与民主责任存在内在张力。当商业利益与公共利益冲突时(如OpenAI),公司治理往往优先考虑股东利益而非广泛的社会影响。
05 非国家行为体作为民主推动者的潜力
拥有道德、认知和市场权威的非国家行为体可以通过两种主要方式在全球AI治理中扮演民主角色——作为民主代理和作为民主推动者。而要成为民主推动者,我们认为,行使道德、认知和市场权威且在政治上具有正当性的非国家行为体,必须在决策过程中强化民主的核心价值,例如包容性、问责制、透明度、开放性和协商性。拥有道德权威的非国家行为体,如AlgorithmWatch,可以被视为民主推动者,因为它们提供关于伦理和人权考量的意见,并努力确保算法决策的使用方式符合民主价值和原则。这类非国家行为体还倡导在涉及广泛利益相关者的AI系统开发和部署决策过程中提高透明度和包容性。
拥有认知权威的非国家行为体,如学者和科学家,可以通过开展关于AI技术、社会和伦理影响的研究分析,并与政策制定者、公民社会和行业分享研究成果,从而成为民主推动者。DAIR公司引入改变AI开发方式的技术标准的努力就体现了这种权威。类似地,这类非国家行为体还基于实践的知识,制定并推广伦理和负责任AI开发与部署的指南和标准。此外,它们可能支持能力建设,以提高公众对AI及其广泛影响的认识。
拥有市场权威的非国家行为体,如跨国公司,也可能成为民主推动者。例如,当它们提供技术专长和资源以支持在AI开发中落实民主价值时,或者当它们制定并遵守促进透明度、问责制和人权尊重的AI伦理原则和实践时,就可能实现这一点。它们还可能投资于研发符合民主价值的AI技术。
06 关键区分
民主代理与民主推动者的核心区别在于其权威来源和对民主化的贡献方式:
1 权威来源
民主代理的权威必须来源于民主制度(直接或间接);民主推动者的权威可以来自专业知识、道德立场或市场地位。
2 时间维度
民主代理直接影响当下的决策民主性;民主推动者为未来的民主化创造条件。
3 变革路径
民主代理通过制度授权实现变革;民主推动者通过价值传播和社会学习产生影响。
随着这一规范差异的明确化,可以清楚地看到,非国家行为体作为民主推动者能力的提升,并不会使它们更接近成为民主代理本身。虽然我们承认在实践中民主代理和民主推动者的影响可能常常看起来相似——在某种意义上,两者都可能提供意见、塑造规范或对正式决策过程施加压力——但它们之间的规范区分仍然至关重要。
07 反驳与回应
在提出我们对全球AI治理中非国家行为体民主资格的分析后,让我们讨论四个可能的反驳。
1 反驳一:非国家行为体的“民主粉饰”问题
非国家行为体在全球AI治理中的民主参与往往流于形式,缺乏实质性改变。他们指出,科技公司虽然高调宣扬民主价值,但其内部决策仍然由少数精英掌控,公众参与仅限于表面功夫。
回应:“真正的民主推动者必须满足机制性参与、问责闭环和利益平衡等实质性条件。非国家行为体必须在实际决策中强化民主价值,例如,不能仅仅强调透明度,而要实施机制来实际改善决策过程的透明度。”
2 反驳二:政治正当性标准的局限性
质疑非国家行为体政治正当性的基础,认为即使目的正当,手段也可能违背民主原则。例如,AI训练数据的标注工作往往依赖发展中国家廉价劳工,其恶劣的工作条件与民主所保障的劳动尊严背道而驰。
回应:这一问题确实存在,但强调民主必须嵌套更基本的正义原则,如欧盟《通用数据保护条例》要求算法训练需经数据主体明示同意,确保程序正义优先。维基百科的“共识决策制”则提供了另一种可能,通过公开讨论和仲裁委员会处理争议,既追求公益目标,又保障参与者权利。
3 反驳三:科技平台的“类国家权威”争议
科技平台“类国家权威”的平台规则(如Twitter的内容审核政策)形同“数字封建主义”,用户无法通过民主程序修改条款,只能被动接受“霸王合同”。
回应:平台治理的缺陷确实存在,但部分案例显示进步可能,如部分开源项目允许社区投票决定重大变更,而德国近期立法要求平台设立用户委员会,赋予其对内容政策的建议权。这表明,通过法律约束和制度创新,科技巨头的权力可被逐步民主化。
4 “总比不做强”的实用主义质疑
若放任非国家行为体主导治理,可能牺牲民主以换取效率。例如,企业主导的AI伦理框架往往忽视边缘群体利益,而全球不平等问题也无法通过市场机制解决。
回应:民主理想需与其他正义原则协同,如环保领域的“公正转型”理论所示,技术进步必须兼顾社会公平。次优选择虽不可避免,但目标应是尽可能接近民主理想,而非妥协于现状。
08 结论与展望
非国家行为体(如企业、学术机构、NGO等)在全球AI治理中的作用日益重要,它们参与制定标准、能力建设和政策倡导。本文探讨了这些行为体的民主角色,提出”道德、认知和市场权威”的分析框架,以区分其正当性条件:何时能促进民主化,何时可能沦为监管俘获。研究回应了四种潜在反驳,强调当前讨论仍处于早期阶段,但为理解非国家行为体在AI治理中的民主资格提供了理论基础。