点击蓝字

关注我们

海外智库观察

随着生成式人工智能技术的迅速发展,国际治理格局正在经历一场原则性的重构。中国与美国无疑代表了两条相对类型化的治理路径:前者依托“数字丝绸之路”和区域合作,积极对外输出制度;后者则通过私营企业与国际联盟,突出其“负责任AI”的治理取向。本文选取卡内基国际和平基金会与战略与国际研究中心(CSIS)于 2025 年新近发表的两篇研究文章,分别分析中国AI企业 DeepSeek 如何向西方治理原则靠拢,以及美国 Scale AI 如何凭借多元复合体策略巩固其领导地位。文章将结合两篇研究中的典型经验与案例,对比评估中美两种治理路径在发展中国家的接受度、可选择性与反应性。


卡内基国际和平基金会

Carnegie Endowment for International Peace

DeepSeek与其他中国公司在AI承诺上的做法正与西方趋同


2025年5月,卡内基国际和平基金会的资深研究员 Matt Sheehan 发布专题评论文章,聚焦中国主流生成式 AI 企业如何逐步对接西方主导的“负责任人工智能 ”原则,并在中美 AI 治理竞争中寻求国际适配路径。该文指出,尽管中国整体AI监管模式以“ 国家主导、平台执行 ”为特征,但在全球扩张与规则接轨的压力下,企业层面正主动吸收部分西方治理语言与伦理标准,呈现出“对外趋同、对内适配”的治理演化趋势。


文章首先以DeepSeek和智谱AI为例,指出它们已开始发布带有国际伦理标识的合规声明。2025年4月,DeepSeek官网上线《AI 责任与伦理承诺》,明确承诺遵守“防止虚假内容生成 ”“反对歧视性输出 ”“确保用户数据匿名化处理 ”等原则,并同步上线了“可解释性可视化 ”功能,允许用户追踪大模型回答背后的推理路径。Sheehan指出,该功能结构与 OpenAI 的ChatGPT插件设计类似,表明DeepSeek 有意将产品合规性向国际市场靠拢。在另一个典型案例中,智谱AI(Zhipu AI)发布的 GLM-4 国际版在对外合作中主打“透明、安全、可审计 ”三大理念。报告提到,该公司2025年初与阿联酋达成合作协议, 在迪拜建立 AI 内容安全实验室,并承诺输出模型均需附带训练数据来源报告与道德风险评估文件。文中指出,这种“合规输出+海外部署 ”的组合模式,已成为中国企业在全球南方推进 AI 治理软实力的新方式。


作者进一步指出,这种“对外伦理趋同”并非企业自发行为,而是嵌套在中国整体治理战略中——尤其是“数字丝绸之路 ”倡议的 AI 子模块。2024 年,中国国家互联网信息办公室牵头,与东盟十国签署《生成式人工智能可信部署指南》,规定所有在东南亚市场推广的大模型产品必须提交伦理审查备忘录。DeepSeek、百度、商汤等公司因此被要求建立国际合规团队,定期向主管部门报告输出内容与治理成效。


在国内层面,这一趋同路径依然服从中国既有的“监管沙盒+行政备案 ”制度框架。例如,尽管 DeepSeek公开承诺参照OECD 原则,但其在国内依然需要向网信办提交模型行为审查文件。2024年底,DeepSeek完成了北京市“算法备案三件套 ”中的风险评估与备案编号,文件中详细列出模型禁用场景,包括政治敏感话题、金融欺诈、虚假医学等。Sheehan指出,这种“双轨并行 ”的合规结构,是中国平台“ 以国家为锚点、以规则为杠杆 ”参与国际治理的体现。在全球南方国家的制度扩散方面,文章引用了两个代表性案例:一是菲律宾教育部与DeepSeek联合部署的“多语种校园AI问答系统 ”,配备实时过滤与伦理违规报警机制;二是智谱AI在肯尼亚部署的“农业助手大模型 ”,须通过当地合作高校伦理委员会审批后上线,并在使用协议中标注“符合肯尼亚国家数据保护法 ”。作者指出,中国平台与当地政府、研究机构共同推进治理实验的模式,具有“政治成本低、技术扩展快”的优势,正在逐渐改变发展中国家对AI治理的预期和标准认知。


文章最后认为,这种基于中国国情“内控+外宣”结合、技术企业与国家战略协同的AI治理路径,既具有高效推动力,也存在治理透明度不足与多元文化适配性偏低的问题。作者呼吁中美两国应在全球南方展开机制对话,避免因制度割裂而导致新型“算法殖民 ”局面。










战略与国际研究中心

Center for Strategic and International Studies (CSIS)

Scale AI 创始人谈如何确保美国在 AI 领域的领导地位


2025年5月,战略与国际研究中心(CSIS)发布对美国AI初创独角兽 ScaleAI创始人Alexander Wang 的深度访谈,系统梳理了美国技术企业在全球 AI 治理竞争中的地位与战略部署。该文章以“确保美国 AI 领导力 ”为主线,强调美国AI输出强调“标准主导+价值嵌入 ”,并通过公私合作机制、开放式标准联  盟、政府主导投资等方式塑造技术话语权。


访谈开篇即指出,美国必须在 AI 标准制定中掌握主动权,尤其是在“负责任AI”(Responsible AI)框架中保持领先。Wang强调,美国企业已经通过与政府合作共同推动 NIST(国家标准与技术研究院)的 AI 风险管理框架(AIRMF)进入全球市场,并以此为基础与东南亚、拉美国家建立“标准互认 ”机制。2024年底,美国商务部与新加坡签署《AI治理合作谅解备忘录》,ScaleAI 是首批进入该框架试点的企业之一,负责开发兼容当地法律的“可溯源训练数据平台 ”


报告进一步指出,Scale AI通过输出“安全标注工具链+合规开发 API”实现对AI治理理念的技术化转译。以其在尼日利亚开展的智能交通系统项目为例,Wang团队为当地政府开发的数据平台集成了模型透明度说明、算法决策依据文档及对抗性内容识别功能。该项目由美国国务院“数字未来基金”提供资助,并要求项目输出必须符合OECD人工智能原则。此类模式被称为“责任治理嵌入式部署 ”,成为美国企业扩大治理影响的核心工具。


值得注意的是,Scale AI强调其治理模式的三大支柱:一是“公开性”——所有 API 均提供说明文档并  接受第三方审计;二是“合作性”——与本地大学、NGO 和政府监管部门联合进行伦理评估;三是“责任性”——建立外部投诉与问责机制,确保算法不造成歧视性或安全性损害。文章指出,这与中国平台的“ 闭环式行政责任链 ”形成鲜明对比。


在谈及与中国治理模式的竞争时,Wang明确指出,中国治理强调模型行为审查与政府主导,但缺乏透明性与公众参与机制。相比之下,美国模式更注重“程序正义 ”与“平台义务共担 ”,希望通过制度吸引而非强制推广。作者引用2024年联合国AI特别机制报告数据显示,目前全球南方约45%的国家表示在AI治理中更倾向于采纳美式开放框架,但同时也有27%明确表示希望借鉴中国式行政效率模式,反映出中美治理在全球治理生态中的“共存张力 ”


最后,文章强调美国要确保全球AI治理领导力,关键在于“制度适配力 ”而 非“意识形态输出 ”。CSIS 建议政府加强对企业的政策支持,并鼓励其在道德合规、跨境数据保护与算法透明上设立“高门槛标准 ”,将治理优势转化为外交资本,与中国在数字南方展开规则竞逐。










原文链接:

1.https://www.wrkf.org/2025-01-28/is-the-chinese-company-deepseek-an- existential-threat-to-americas-ai-industry?

2.https://www.csis.org/events/scale-ais-alexandr-wang-securing-us-ai-leadership?



文章检索及编译:吴思叡(华盛顿大学)

审核:赵杨博

排版:李森(北京工商大学)

终审:梁正、鲁俊群


清华大学人工智能国际治理研究院编
上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

往期回顾

海外智库丨人工智能国际治理观察第278期

海外智库丨人工智能国际治理观察第277期

海外智库丨人工智能国际治理观察第276期


关 于 我 们



清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG


内容中包含的图片若涉及版权问题,请及时与我们联系删除