点击蓝字
关注我们

海外智库观察
人工智能正成为全球技术竞争的关键领域之一。在通用人工智能(AGI)加速推进的背景下,中国与美国分别构建出两种迥异的战略路径与治理范式。中国将人工智能发展视为国家战略支柱,通过政策扶持、平台监管和技术内生化推动其全球扩散;而美国则强调技术领导地位的维持,以开放创新、市场驱动和国际联盟为手段强化其在标准与规范制定上的话语权。这种制度性差异,不仅反映在国内的技术治理逻辑中,更体现在两国对AI国际扩展与规则主导的根本性博弈。
为深入理解这种战略差异,本文选取战略与国际研究中心(CSIS)于2025年发布的《理解人工智能扩散框架:确保美国AI领导地位同时防止战略漂移》与卡内基国际和平基金会2025年研究文章《弥合人工智能治理鸿沟:中美通用人工智能治理路径差异》作为核心参考文本。前者通过对美国当前AI外交政策的系统性回顾,指出其在AI治理输出方面面临“战略扩张”与“价值一致性”之间的张力;后者则从中美AI治理模式的路径依赖与制度实践出发,分析中国如何利用“国家–企业联盟”策略构建AI扩散生态,并探讨全球南方国家在两者之间的接受度与制度适应性。这两篇研究为我们理解AI技术如何在地缘政治结构中被塑造和输出提供了重要视角。
战略与国际研究中心
Center for Strategic and International Studies (CSIS)
理解人工智能扩散框架:确保美国AI领导地位同时防止战略漂移
CSIS于2025年1月发布的这份政策报告,围绕美国在全球人工智能扩散中的战略定位进行系统分析,提出“引导性扩散”与“战略定锚”两大支柱概念。报告认为,随着中美竞争重心从技术能力本身转向技术制度输出,人工智能已成为地缘政治的新杠杆工具。面对中国通过“一带一路”推广AI监管模板的现实压力,美国必须从“孤立主导”模式转型为“联盟共建”策略,在规范制定、技术标准、市场接入等维度强化对全球南方国家的制度吸引力。
首先,作者对比分析了中美在AI扩散中的路径差异:中国以国家为主导,通过建设“数字丝绸之路”向东南亚、非洲、拉美国家输出以“数据主权”和“模型安全”为核心的治理模式;而美国则更倾向于通过技术联盟(如GPAI、Quad Tech)、公司平台(如OpenAI、Google)、及外交通道推动“可信赖AI”的治理理念在全球扩展。这种差异不仅体现在制度设计理念上,也在话语构建与合作方式上呈现出显著分野。
其次,该报告以“中美在全球AI扩散中的战略位势”为核心,提出了三个阶段性战略目标:一是“标准抢占”,即通过主导制定红队测试、数据治理、模型透明等标准获取制度话语权;二是“机制塑造”,通过推动G7、OECD等多边平台形成制度联盟;三是“风险绑定”,将AI技术出口与伦理合规、国家安全挂钩,实现扩散过程的价值引导。2024年,美国通过《国家关键和新兴技术安全法案》新增“对外AI出口伦理审查”条款,成为首个将AI技术扩散纳入安全评估框架的国家。
作者还特别指出,中国AI治理模式虽然在发展中国家具备较强的适应性,但其在程序透明、公民参与与人权保障方面存在制度张力,因而美方需针对性构建“可信AI示范框架”。报告引用数据指出,截至2024年底,中国已与32个发展中国家签署AI技术合作备忘录,覆盖算法审查、数据治理与平台接入流程,明显领先于美方在制度扩散的广度与速度。相较之下,美国需在资金支持、示范项目、跨国监管合作等方面补强,以缩小影响力差距。
最后,作者提出了具体政策建议:建立“可信AI国际合作基金”,支持低收入国家进行模型风险评估与伦理审查;设立“AI外交官”岗位,推动人工智能外交语言标准化;强化与欧盟、日韩、加拿大的联合监管能力建设,推动形成“AI治理民主联盟”以抗衡中国的国家治理输出模式。CSIS认为,只有构建稳固的制度扩散战略,美国才能在即将到来的AGI竞争中保持价值引导与结构主导双重优势。
卡内基国际和平基金会
Carnegie Endowment for International Peace
弥合人工智能治理鸿沟:中美通用人工智能治理路径差异
本报告由卡内基于2025年3月发布,重点分析中美在通用人工智能(General-Purpose AI, GPAI)治理路径上的战略差异与协商空间,认为两国在制度逻辑、治理优先级、国际参与模式方面存在深刻结构性分歧,但在风险识别、红队测试、算力监管等关键环节出现一定趋同。本研究特别强调“协调共识”的必要性,即在全球AI标准尚未固化之前,通过区域机制与双边平台推进有限制度整合,避免AI治理割裂为“西方平台—中国政管”双轨运行的国际格局。
首先,报告通过对比OpenAI和百度的GPAI模型部署策略,揭示中美在责任边界认定、模型开放程度、伦理审查机制方面的关键差异。例如,OpenAI自2023年推出GPT-4以来,引入了微软、Anthropic、Google DeepMind等组成的第三方红队,对模型的有害输出、幻觉内容进行多轮评估。根据2024年6月发布的API透明度报告,GPT-4的商业接口调用量已超过1亿次/月,其中60%用于企业场景。相比之下,百度“文心一言”则以“国家主导+封闭部署”为核心,模型需先经网信办备案,备案编号从2023年10月至今已达到142项;并通过接入公安内网开展敏感输出自动拦截与溯源。文心团队曾在2024年“全国两会”期间下线十余项开放接口,仅保留基础对话与办公插件,以防政治敏感语义输出。
其次,报告以平台落地实践为支点,概括中美在算力分配与伦理评估上的核心差异。2024年,中国科技部支持筹建“国家超级算力平台(NSCP)”,集中调度重点企业(如商汤、华为、科大讯飞)所需GPU资源,并以“人工智能能效评估指数”(AIEEI)为考核依据,对模型能耗与社会风险双重量化。OpenAI则依赖微软Azure的分布式算力系统,按照月度调用峰值与研发阶段授权不同层级访问接口,强调商业弹性与开放生态。报告引用阿里云“通义千问”的案例指出,其“敏感内容自定义包”自上线以来,已被超3万家中小企业部署,用于过滤低俗、宗教敏感及虚假医学等内容,有效降低合规处罚风险。
在国际扩展层面,报告特别介绍了中美两国在非洲与东南亚的GPAI输出路径:2024年,中国在尼日利亚援建的“AI政务云平台”引入“算法备案模板”、“问答审查接口”,与本地政府实现联合治理;而美国开发署则在菲律宾、肯尼亚推广开源微型模型“LLaMA”和“Gemma”,强调以开源模型增强公民社会的算法自主权。卡内基引用联合国统计显示,2024年底前,已有61国参照中国设立算法审查机制,而52国采用美国提出的“红队+透明测试”标准。这一“共识难题”成为当前国际AI治理的最大障碍之一。
此外,该报告指出,欧盟AI法案正在逐步吸收中美两方实践元素。例如,欧盟于2025年初将“高风险应用清单”纳入立法,并接受企业事前备案与伦理影响评估,形成部分向中国靠拢的治理框架。同时,欧盟保留开源模型豁免权与用户反馈申诉机制,又体现对美国开放技术逻辑的认可。这使得欧盟在GPAI治理中被视为中美制度对话的“潜在中介”,也是未来三边协商机制的重要支点。
最后,卡内基建议应推动构建“GPAI技术中介机制”(GPTI),包括每季度召开中美-欧三方技术圆桌会议,联合发布模型治理实践报告与风险通报机制;在非敏感领域(如粮食分配模型、抗疫应对算法)建立中美联合实验项目,推动技术信任共建;并设立“全球AI治理数据库”,收录中小国家政策试点数据、公众反馈指标与监管成本评估,以避免“强国治理模式输出”带来的制度单一性风险。
原文链接:
1.https://www.csis.org/analysis/ai-diffusion-framework-securing-us-ai-leadership-while-preempting-strategic-drift
2.https://www.rand.org/pubs/perspectives/PEA3703-1.html
审核:赵杨博
排版:李森(北京工商大学)
终审:梁正、鲁俊群
往期回顾
海外智库丨人工智能国际治理观察第277期
海外智库丨人工智能国际治理观察第276期
海外智库丨人工智能国际治理观察第275期
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢