点击蓝字

关注我们


伦敦皇家国际事务研究所


前言




填补治理空白的时代呼声


人工智能技术的迅猛发展已经跨越国家边界、渗透多个领域,对人类社会、经济结构与国家安全均产生深远影响。然而,在全球范围内缺乏一个统一、合法且高效的治理机制,已成为亟需回应的关键难题。2023年联合国秘书长古特雷斯召集的“人工智能高级别咨询机构”(HLAB-AI)虽试图推动国际治理建议,但其依赖自愿合作与碎片化路径使人质疑其执行力与适应性。


为应对全球性挑战并促进技术发展与人权保障之间的平衡,Mark Robinson 提出,应在联合国主持下成立一个具备法律约束力的国际人工智能机构(IAIA)。该机构不仅要整合现有治理机制,还需建立具有广泛代表性与操作性的监管结构,并与全球科技企业直接协作。正如国际原子能机构(IAEA)在冷战时期应对核威胁所发挥的作用一样,IAIA将成为21世纪应对人工智能挑战的关键支柱。


一、国际机构建设的必要性与现实基础


建立IAIA的核心逻辑有三:伦理责任、全球互联性与合法性的统一框架。首先,公众对于技术滥用、算法歧视以及系统性偏见的担忧不断上升,倒逼政府与私营部门采取“负责任AI”的治理承诺。其次,人工智能的跨境影响决定了任何一国都无法独自管理其全球性风险,合作治理成为必然趋势。而第三点则关乎制度设计的合法性,只有一个由政府间主导的中央协调机构,才能确保政策统一、资源公平分配,并有效整合多方参与者的诉求与义务。


联合国的代表性和合法性虽然具备天然优势,但现有平台如GPAI(全球人工智能伙伴关系)在职能设定与参与覆盖上仍存不足。GPAI将政策制定职能排除在外,且其成员主要集中在经合组织国家,缺乏对全球南方的包容。Robinson指出,一个真正有效的国际机构应像IAEA那样,形成由成员国主导、兼顾多方参与的稳定结构,在全球科技企业与国家政府之间建立合法与合作的新平衡。




二、多边架构设计:制度创新与现实博弈的融合


借鉴国际原子能机构(IAEA)的治理经验,Robinson在文章中提出了一套可操作性强、结构稳定的人工智能国际机构治理模型。这一模型采用“双机构制”:包括一个全体大会与一个35人组成的理事会,其中理事会由20位成员国代表和15位来自大型科技企业的“准成员代表”构成。这一设计既确保国家在治理中的主导地位,又体现出科技企业的协作参与,有助于提升决策效率与技术执行力。


更重要的是,文章强调该机构将采用混合形式召开会议,并引入不设否决权的议事规则,防止少数成员垄断关键决策,最大程度保障多边治理的公平性与开放性。这一架构不仅解决了国际协调效率低、治理职能重叠等问题,还增强了对跨境数据监管、AI伦理审查与标准制定的实际执行能力。该提案中的治理结构为模型架构,采用核心-外围组合方式构建治理逻辑,在保持成员国主导的前提下,通过科技企业的“准成员”机制,引导其提供人力、技术与资金资源,实现治理能力与创新动力的双重整合。


这一制度架构背后反映的是现实政治与技术主导力量的持续博弈。Robinson指出,虽然企业参与有助于增强技术透明度与应对AI滥用风险,但同时也必须防止“监管俘获”现象。因此,制度中对代表比例、权力边界与监督机制的明确设计,正是防范大公司主导公共决策的关键。




三、推动机制运作的关键群体:政治领袖、技术专家与外交机制


要实现这一国际人工智能机构的设立及其高效运行,离不开三个核心群体的联动协作:政治领导人、科技行业的关键专家,以及具备国际谈判经验的外交与行政人员。


首先,在地缘政治竞争加剧的当下,政治领导人是否具备建立共识的战略远见,将直接影响机构的合法性与持续性。Robinson指出,尽管联合国平台具备广泛代表性,但如果没有中美两国的共同支持,其国际影响力将大打折扣。尤其是在特朗普可能再次当选总统的背景下,美国对国际多边机构的态度存在不确定性,甚至可能因政商界联盟(硅谷—华盛顿轴线)而对新机构持保守立场。然而,Robinson也指出,特朗普自诩“交易艺术大师”,因此若能以经济、技术或双边稳定为筹码,未来中美或许仍有可能通过“技术大交易”来达成基础合作。这种不确定性虽然带来挑战,但也恰恰说明多边机制仍需为复杂局势预留灵活窗口。


其次,技术专家的专业能力与道德导向同样关键。文章强调,当前人工智能开发门槛降低,但风险日益多样化。从生成式AI带来的信息污染,到模型训练中的偏见问题,再到超级计算资源的垄断与环境成本,Robinson认为,若无技术专家的实质性参与,机构将难以设立有效的审核与响应机制。此外,科技公司所面临的外部监管压力也促使其参与治理成为必要趋势。以欧盟《人工智能法案》为例,其将于2026年前全面实施,届时所有高风险AI系统将需接受算法透明度审查,违反者面临高额罚款。这一立法趋势或将推动美国科技公司主动进入国际规则场域,以形成“软着陆式合规”路径。这种背景下,国际人工智能机构有望成为它们寻求全球标准协调的突破口。


第三,外交官与跨国行政人员的战略沟通力,是连接政治意志与技术治理的桥梁。Robinson强调,成功的国际机制往往伴随着隐秘而高效的外交游说与长期关系维护。例如冷战时期促成《不扩散核武器条约》的多边谈判,正是通过灵活的外交策略调和了敌对大国间的根本分歧。国际人工智能机构若要顺利落地,必须培养出兼具技术知识与谈判能力的“复合型外交官”群体,既能代表国家意志,又能理解算法审查、数据治理、模型风险等核心问题。尤其是来自全球南方的外交人员,其代表性与合法性对于打破“AI治理北方主导”的结构性偏见至关重要。




四、制度设计与治理机制:从核查章程到共管模型


为了确保国际人工智能机构(IAIA)具备权威性与执行力,Robinson在报告中详细提出了制度架构的构想。在联合国框架下设立的IAIA,必须以具有法律约束力的章程为基础,由所有成员国签署并在各自国内完成批准流程。这一章程不仅要明确机构的权力边界、运行机制与问责标准,还应具备高度的适应性:核心条款保持刚性,以确保稳定性;支持性技术规范和监督方案则应允许灵活修订,以适应快速演化的技术生态。


治理机制方面,IAIA将采用“大会+理事会”的双重制度安排,参考国际原子能机构(IAEA)的模式。大会由联合国全体成员国组成,每年召开一次;理事会则为核心决策机构,由35位成员组成,其中20位为国家代表,15位为大型科技公司的“准成员代表”。该结构设计旨在,在保障国家主权的同时也可以引入企业技术资源与治理能力,同时又通过设立权重限制与否决机制,防止监管俘获与主导地位合法化。文中提到,尽管大型科技公司将在理事会中拥有席位,但其数量将受限于不构成多数,同时不拥有否决权。政府代表将主导决策议程,以保障IAIA的公共属性。而科技公司在其中的职责则包括:参与风险评估小组、提供审计数据访问权限、执行算法透明度披露,并协助机构技术标准落地。


IAIA的制度核心还在于其监督与执行机制。成员国需立法授权核查人员进入AI系统开发现场与数据中心,构建“国际监管+本国执法”联动体系。科技公司则必须提供资金与技术支持,以辅助高频审计、模型追踪与违规识别流程,保障系统稳定性与公共信任。此外,机构还将通过设立区域性协调办公室,在发展中国家建立治理节点,推动多边技术转移与能力建设。





五、多边共建路径与全球南方的嵌入机制


在Robinson提出的治理蓝图中,国际人工智能机构(IAIA)不仅是一种“顶层治理框架”,更是一种强调全球协作、跨领域共建的治理机制。这种多边主义治理观强调,不应将人工智能治理框架局限于技术强国之间的双边博弈,而应构建一个包容性的“全球技术契约”,确保全球南方国家不仅有席位、有话语权,更能通过制度安排实现切实收益。为此,IAIA在制度设计上突出对发展中国家的支持功能。首先,在治理结构中引入“区域代表制”,确保不同经济体与文化背景的广泛代表性。特别是在理事会构成中设立地理分区席位,确保来自亚洲、非洲、拉美等地区的代表不被边缘化。其次,机构将设立专门的“南方基金”(Global South AI Fund),以支持发展中国家在AI治理能力建设、人才培养、伦理准则制定等方面的本地化实践,形成“能力输出+规则参与”的双向机制。Robinson特别指出,在应对AI造成的全球不平等风险方面,IAIA必须超越“宣言式治理”,推动落地性的结构性安排。例如,针对AI可能引发的跨国就业替代与算法歧视问题,IAIA将推动建立全球伦理审查机制,并鼓励企业在开展AI部署前进行“影响力评估”,保障边缘群体的技术权益。


与此同时,IAIA还必须在当前紧张的中美关系背景下,提供一种“制度中立”的协调平台。Robinson认为,当前虽然中美在AI价值观、数据政策、标准话语权等方面存在显著分歧,但对系统性风险防控,模型验证标准与边界设定规则的需求是共同的。IAIA的战略角色应当是缓冲竞争、放大共识,通过设立技术中立审查机构与多边模型评估框架,为两个技术大国提供协同治理的空间。为此,IAIA可参考IAEA的经验,设立多边危机应对机制,在面临突发性AI安全事件(如失控模型发布、跨境信息泄露)时,能迅速协调多国行动,避免个别国家“单边裁决”的治理真空。此外,为了促进共识形成,机构还将推动常态化的“AI全球对话会议”,鼓励民间社会、技术专家与政策制定者在非正式场域展开交流,从而不断拓展信任基础。


最后,在图表设计方面,Robinson建议构建多级嵌套治理网络,以形成“全球机构—区域平台—国家节点”三级联动的治理体系。这种结构兼顾了治理的统一性与灵活性,既保证了全球规则的协调一致,也赋予本地实践以自主调整空间。





六、关键群体协同与建制展望


在Robinson的设想中,建立国际人工智能机构(IAIA)的成功不仅依赖于制度框架的设计,还取决于“关键群体”的战略性协同。这些群体涵盖了三个核心类别:政治领导人、技术专家,以及具有多边谈判经验的外交与行政人员。三者的协作将构成制度起步与持续运作的动力机制。


首先,政治领导人作为主权国家意志的体现者,其态度直接决定机构的成立意愿与国际条约的签署进度。尽管面临如特朗普当选等可能的阻碍因素,Robinson仍指出,只要能围绕人工智能领域的全球互信稀缺性构建一种“大交易”,即在安全保障与技术共享之间建立互利机制,中美等技术大国仍有可能寻求政治突破。类似于《不扩散核武器条约》的双重平衡逻辑,IAIA可通过联合国主导达成包含“强国承诺”与“弱国回报”的均衡治理方案。


其次,技术专家的角色尤为关键。他们不仅掌握前沿算法与模型开发能力,还了解模型滥用、训练偏差、系统失控等具体风险。Robinson建议IAIA应设立独立的技术审查委员会,由来自不同国家和学科的科学家组成,专责评估各类AI模型的风险等级、透明度与干预机制。科技企业则应被要求提供透明数据、支持审核,并接受治理准则下的监督。例如,在报告中提到的治理架构图(如下所示),已明确将科技公司以准成员身份纳入理事会治理体系,避免其被边缘化的同时,也防止其成为主导方。



图1:拟议中的国际人工智能机构治理架构概览


第三,外交官和国际行政人员将负责机构创建、规范谈判、成员国动员与公信力建设。Robinson指出,良好的外交行为与谈判经验是IAIA获得政治支持与资源投入的关键。他建议借鉴过去能源安全、气候变化领域中的跨国执委制,组建一个具备执行力与协调力的过渡秘书处,主导前期文本草拟、成员征询、平台搭建等工作。



参考来源:

Robinson, M. (2025). The establishment of an international AI agency: an applied solution to global AI governance. International Affairs, iiaf105.https://academic.oup.com/ia/advance-article/doi/10.1093/ia/iiaf105/7663465


文章检索及编译:吴思叡(华盛顿大学)

审核:赵杨博

排版:李森(北京工商大学)

终审:梁正、鲁俊群


清华大学人工智能国际治理研究院编
上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

往期回顾

海外智库丨人工智能国际治理观察第280期

海外智库丨人工智能国际治理观察第279期

海外智库丨人工智能国际治理观察第278期



关 于 我 们



清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG



内容中包含的图片若涉及版权问题,请及时与我们联系删除