点击蓝字

关注我们

海外智库观察

随着人工智能技术在全球范围的迅猛发展,围绕其治理的国际竞争也愈发激烈。AI治理不再仅仅是技术管理问题,更成为国家软实力输出、规则制定权争夺以及地缘政治博弈的重要组成部分。在这一过程中,中美两国以不同的治理路径和制度逻辑,试图在联合国、国际标准化组织(ISO/IEC)、国际电信联盟(ITU)等多边平台中主导AI规则的形成方向,推动各自偏好的标准体系获得国际承认和采纳。


美国长期以来强调行业自律、跨国企业主导与多利益相关者协商的治理模式,其AI治理结构更注重可解释性、透明性与技术创新自由而中国则倾向于国家主导、平台责任与风险可控的制度设计,强调对算法、数据和模型的全生命周期监管。这种标准理念上的差异,也在国际组织内部不断显现。例如,在ITU人工智能焦点小组(FG-AI4H)中,中方提出“机器学习模型分级监管框架”,而美方代表则更推崇以风险导向为基础的柔性技术标准。


更值得关注的是,2025年以来,随着生成式人工智能(GenAI)的技术能力突破与商业化推进,治理问题已从传统AI的技术安全与算法公平,延伸至对信息控制、平台责任乃至社会稳定的更深层考量。中美在生成式AI领域分别推动了不同的法规体系:美国在国家标准与技术研究院(NIST)基础上制定评估框架,并在ISO层面进行标准转化;而中国则通过《生成式人工智能服务管理暂行办法》等法规确立了模型备案、内容审核与用户分级制度。这些国内制度已被各自纳入其“标准外交”路径,开始走向国际输出阶段。


本文以CSIS与卡内基国际和平基金会2025年的两篇最新研究为基础,探讨中美在AI治理标准制定过程中的关键差异与制度竞争重点,分析国际组织中的政策工具运用与软性影响力策略,并尝试评估未来是否可能出现某种“结构性协同机制”,从而避免AI标准的全球分裂。


美国战略与国际研究中心

CSIS

美国推动AI标准的法律基础与国际结构战略


2025年3月,美国战略与国际研究中心(CSIS)的研究员Emily Benson发表了题为《理解美国及其盟友在AI与半导体出口控制上的法律权限》的专题分析文章。这篇报告并不局限于出口控制本身,而是系统性地揭示了美国在AI国际治理中如何通过法律结构、标准输出与盟友协调,建立其治理主导地位。文章中一个核心观点是:“出口管制只是手段,标准主导才是目标。”文章首先回顾了美国国内的AI治理法律基础。Benson指出,美国国家标准与技术研究院(NIST)在2023年发布的《AI风险管理框架(AI RMF)》为美国各大科技公司、军工承包商与研究机构提供了统一的标准语言,并成为参与国际组织标准谈判时的重要依据。举例来说,该框架中的“模型信任度评估指标”(Trust Metrics)已被嵌入ISO/IEC JTC1/SC42工作组所起草的AI系统安全标准草案中,显示出美国国内标准向国际标准的转换路径。


其次,文章分析了美国如何利用其联盟体系在国际标准组织中集体行动。CSIS研究指出,美方不仅在ITU和ISO中积极部署代表,还通过与欧盟、加拿大、日本和澳大利亚达成“AI标准协调备忘录”(Memoranda of Understanding on AI Standards),形成所谓“可信标准圈”(Trusted Standards Circle)。例如,在ISO/IEC DIS 42001(人工智能管理系统标准)制定过程中,美日两国代表成功推动引入对“算法透明性”与“模型测试记录”的附加条款,而这些条款正是NIST标准中已有的组成部分。文章强调,这种做法大幅提升了美国制度在国际治理平台上的“兼容度与渗透率”。更具战略意图的是,Benson指出,美国通过标准制定拉拢盟国共同构建治理生态,意图将中国逐出关键技术评估议题。例如在ITU-T FG-AI4A小组会议中,关于“AI伦理审查机制”的草案内容,美方代表联合欧盟对中方提出的“国家主导责任模型”提出反对,认为其缺乏足够的灵活性与透明性。最终,在反复修订后,中国方案未被采纳,反映出美国在国际组织中不仅仅参与讨论,更主动设定议题与规则。


文章最后呼吁,美方需保持技术开放与制度适应能力的平衡,继续推动可解释性、安全性和数据治理的国际标准形成,同时在保持高水平监管一致性的前提下,为AI产业创新保留足够空间。










卡内基国际和平基金会

Brookings Institution

生成式人工智能治理路径与中国标准输出机制


2025年2月,卡内基国际和平基金会发布题为《中国生成式AI监管路径:国家法制与平台治理》的研究报告,由Oliver Guest与Kevin Wei联合撰写。该文聚焦中国政府如何建立一套系统性的生成式人工智能(GenAI)监管制度,并尝试将其制度框架推广至国际平台,构建具有中国特色的AI治理标准输出路径。


文章首先概述了中国生成式AI治理的三大核心支柱:一是算法备案制度,即所有在国内运营的大模型必须在网信办进行算法安全评估与技术说明报备二是平台责任机制,要求企业对生成内容进行前置审核与用户标注,并设置“禁止用户输入敏感词”机制三是伦理审查制度,强调模型训练数据不得含有违法、歧视或破坏社会主义核心价值观的内容。与西方主张自下而上的行业指引路径不同,文章指出中国选择的是“自上而下”的立法-监管-平台三级治理架构。例如,《生成式人工智能服务管理暂行办法》由国家互联网信息办公室联合多个部委于2023年发布,迅速成为行业准则。这种快速制定与严格实施的模式,使中国政府能在AI治理初期就形成稳定、可控的制度框架。


文章进一步分析了中国将此套制度向国际输出的策略与机制。一方面,中国通过与“一带一路”合作国家签署数字治理备忘录,将AI治理作为“数字丝绸之路”的一部分推广。例如与中东、中亚和非洲国家的合作中,中国企业为当地政府提供包括大模型训练、内容审核、数据主权服务在内的整体方案,将国内治理理念包装为“可复制的数字基础设施服务包”;另一方面,中国积极参与ISO/IEC与ITU的AI治理议题,尝试以“安全优先、可控可解释”为原则争取话语权。报告特别指出,中国在ITU-T FG-AI4H中主导的“生成式AI内容可信度评估指标”(G-AI-TRI)草案中,强调生成内容的标签机制、涉政过滤系统与平台实时干预能力,这一方案虽未最终通过,但得到了包括埃及、阿联酋与巴基斯坦等多国代表支持。Guest与Wei认为,这表明中国标准正逐步形成“南南共识区”,并对西方以企业主导为核心的标准模式构成潜在挑战。


值得注意的是,文章也指出了中国标准输出所面临的障碍。一方面,由于缺乏透明公开的第三方审核机制,中国制度常被质疑“难以复制”另一方面,过于严格的内容管控在某些文化语境中易被理解为言论干预,降低其全球接受度。但作者亦强调,随着生成式AI带来的风险日益扩大,对高风险模型施加更多审查机制已成为全球共识,这也为中国路径的国际化提供了机会窗口。


综上所述,文章认为中国通过法律规范、平台协同与国际组织渗透形成了系统化的治理逻辑,虽尚未成为主流国际标准,但已构成另一极结构性影响力。未来是否能与美国主导的“技术透明-行业主导”路径实现机制协同,仍取决于多边平台中的协调机制与共同议题构建能力










原文链接:

1.https://www.csis.org/analysis/understanding-us-allies-legal-authorities-export-controls-ai-and-semiconductors

2.https://carnegieendowment.org/research/2025/02/chinas-approach-to-regulating-generative-ai



文章检索及编译:吴思叡(华盛顿大学)

审核:赵杨博

排版:李森(北京工商大学)

终审:梁正、鲁俊群


清华大学人工智能国际治理研究院编
上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

往期回顾

海外智库丨人工智能国际治理观察第281期

海外智库丨人工智能国际治理观察第280期

海外智库丨人工智能国际治理观察第279期


关 于 我 们



清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG


内容中包含的图片若涉及版权问题,请及时与我们联系删除