点击蓝字
关注我们

海外智库观察
在人工智能加速发展、伦理风险日益凸显的全球背景下,各国纷纷出台相应政策以回应技术应用中的规范性难题。欧美国家通常将“可信AI”“算法透明”“以人为本”等原则视为伦理治理的核心,试图借此构建全球技术标准主导权。而与此同时,中国也逐步形成了具备本国制度特色的人工智能伦理治理路径,强调“安全可控”“发展导向”“系统责任”,并通过发布《人工智能伦理治理规范》《生成式人工智能服务管理办法》等政策文件,建立起以政府为主导、平台负责、社会参与的治理结构。在多边谈判与国际规则协商场域中,中国也日益活跃,积极推动“多元共治”“主权优先”等理念,逐步拓展其在全球AI伦理治理话语体系中的存在感。
以下两篇由卡内基国际和平基金会与战略与国际研究中心(CSIS)撰写的报告,分别从全球规范演化与中国制度实践两个角度,剖析中国人工智能伦理治理模式的内在逻辑、外溢路径及其对国际秩序的潜在影响,呈现了当下AI伦理治理领域中竞争与协商并存的复杂局势。
卡内基国际和平基金会
Carnegie Endowment for International Peace推动更具全球包容性的可信人工智能议程
2024年4月,卡内基国际和平基金会发布的《推动更具全球包容性的可信人工智能议程》报告认为,当前人工智能伦理治理领域长期被欧美主导的价值体系与技术标准所垄断,例如欧盟AI法案倡导的数据最小化原则、企业自查责任制及跨境数据自由流动机制等。这些制度设想虽然体现了高度的信息自由与个人权利保障理念,但在许多全球南方国家的实践环境中面临重大落地困境,包括监管能力薄弱、产业链不健全和伦理执行手段缺位等问题。报告指出,中国近年来构建的AI伦理治理模式虽在治理哲学上与西方存在显著差异,但其在制度操作性与可复制性方面对全球南方国家具有一定吸引力和参考价值。
首先,报告详细介绍了中国构建生成式人工智能治理框架的主要路径。在技术应用迅速扩张、深度合成内容引发社会争议的背景下,中国出台了《生成式人工智能服务管理办法》,明确了服务提供者在算法透明、内容审核与责任承担等方面的具体义务。该办法规定,平台必须对生成内容进行显著标注,防止用户误将AI产出误认为真实信息;同时,企业需在模型部署前完成全面的内容风险评估机制,以识别模型是否可能生成违法、暴力、虚假或扰乱社会秩序的信息。作者指出,这种“前置风险识别+过程监管+责任归属”三位一体的制度结构,体现了中国强调“可控性优先”的治理逻辑。例如,中国监管部门已明确要求主流平台设立AI生成内容审核团队,并对高风险模型采取“技术封控”与“限域发布”机制,从制度源头控制AI输出能力。
其次,报告认为中国试图通过推动伦理规则本地化来实现对全球治理话语体系的“结构性回应”。在联合国教科文组织、G20、金砖国家等多边治理平台上,中国多次主张,在制定AI伦理原则时应充分考虑各国的政治体制、社会文化、发展阶段与治理能力,不应将单一标准强加于所有国家。例如,在2023年联合国教科文组织关于AI伦理合作的谈判中,中国代表明确指出:“各国有权根据本国文化传统和治理需求,建立符合自身利益的AI监管机制。”这一主张获得了多个非洲、东南亚国家的广泛支持。报告认为,这种强调“制度自洽性”与“文化多样性”的主权伦理立场,不仅展现出中国对全球治理结构多样化的政治态度,也为一部分中低收入国家提供了技术伦理发展的“替代路径”。
第三,报告指出中国伦理治理的现实意义不仅在于制度设计,更在于其可操作性与可推广性。例如,中国政府将伦理原则嵌入技术研发与平台运营全过程,通过“备案制度”“黑名单机制”“风控报告”等制度抓手,推动企业建立起覆盖内容生成、模型训练、用户交互等多个环节的伦理责任链条。平台企业如百度、阿里等也配合政策建立了伦理委员会,开发合规操作手册,并上线提示系统以警示用户AI内容来源与潜在偏差。这些实践说明,中国所主张的伦理治理不仅限于政策表达,更落地于产品场景与模型部署之中,为其他尚未建立系统治理架构的发展中国家提供了可移植的制度模板。
作者最后强调,虽然中国治理路径与西方倡导的“个人中心主义”模式存在根本差异,但两者目标并不对立。中国并非拒绝“可信AI”的目标,而是从国家治理需求出发,对其路径进行了本土化重构。未来全球AI伦理治理将不再是单一范式输出的过程,而是多种模式之间的协商、竞争与共存。在这一趋势下,中国所构建的“安全导向、发展兼顾”的治理逻辑,可能在更多制度资源有限的国家中获得效仿,其国际话语权与规则塑造力也将在多边机制中持续上升。
战略与国际研究中心
Center for Strategic and International Studies(以下简称 CSIS)中国的人工智能伦理与治理
2024年12月,战略与国际研究中心(CSIS)发布的专题报告《中国的人工智能伦理与治理》指出,中国人工智能伦理治理正经历从原则倡导到制度落地的深度转型。不同于欧美以个人权利为核心、强调企业自律和透明责任的模式,中国政府将伦理治理作为国家战略性任务推进,强调以政策设计引导技术应用路径,通过强化平台合规与系统管控,实现对算法行为与内容生成的全过程监管。CSIS认为,这种治理模式体现出中国特有的“结构嵌入式伦理治理逻辑”,即伦理规范不是作为建议性框架存在,而是被直接嵌入到行政流程、技术标准和平台运营中,具有强制度刚性与政策执行力。
首先,报告详细介绍了中国在生成式人工智能监管方面的实践成果。以2023年出台的《生成式人工智能服务管理办法》为例,该政策明确规定服务提供者需对模型输入和输出双向过滤,确保生成内容不违法、不虚假、不扰乱社会秩序。特别是在模型上线前,企业必须完成安全评估并提交备案报告,若存在潜在风险则不得部署。报告指出,这种监管制度具有显著的“事前防控”特征,与欧美普遍采取的“事后问责”模式形成鲜明对比。例如,百度文心一言和阿里通义千问等主要AI平台,已在2024年内分别建立了模型伦理审查机制和内容安全运营部门。CSIS引用数据显示,截至2024年第三季度,仅百度文心团队就针对生成式内容进行了超过15万次人工复审,涉及深度合成视频、虚构新闻、仿冒人物等高风险样本近2.1万条。这些数据反映出,中国平台在政策推动下,正从“技术驱动”向“责任驱动”加速转型,伦理审核正逐步成为模型开发和部署的基本程序环节。
其次,作者指出,中国AI伦理治理的另一个显著特征是政府与平台间的协作机制日趋成熟。平台企业不再是被动接受监管,而是主动参与政策制定与合规执行。例如,阿里云、科大讯飞等企业不仅设立专门的“伦理产品负责人”岗位,还在大模型训练阶段引入“伦理标签预处理机制”,通过过滤敏感样本,实现伦理预防前置。这种伦理合规前移的做法,使治理能力从事后修复转向了事前设计与风险建模。在国际治理方面,报告也强调了中国日益增强的制度输出意图。近年来,中国积极参与金砖国家AI合作机制和“一带一路”数字合作倡议,推广以“数据本地化”“政府主导”“跨境审查”为核心的治理架构。这一模式与欧美倡导的数据自由流动、企业自治责任等原则存在根本差异。例如,在2023年金砖国家数字部长会议上,中国提出建立统一的“AI伦理评估白名单”机制,建议参与国优先采用经审查认证的模型进行公共服务与教育场景应用。作者认为,这种做法显示出中国正试图将自身治理框架推向区域乃至全球层面,塑造一套以国家责任为基础的AI治理共同体。
文章最后,作者也指出尽管中国AI伦理治理模式在执行路径上偏向“集中协调”,但并不意味着其否定多元治理的重要性。相反,其目标在于建立一个“伦理可验证、责任可追溯”的底层结构,以应对深度合成技术带来的不可控扩散问题。作者宣称,若西方国家忽视中国治理逻辑的制度根基与现实效果,而仅从价值角度进行批判,可能在全球治理博弈中失去对非西方国家的政策影响力。未来的AI伦理治理将不可避免地进入“结构多元、标准协商”的新阶段,而中国路径将成为不可忽视的强力制度变量。
原文链接:
1.https://carnegieendowment.org/2024/04/01/advancing-a-more-global-agenda-for-trustworthy-artificial-intelligence-pub-92008
2.https://www.csis.org/analysis/ai-ethics-and-governance-in-china
文章检索及编译:吴思叡(华盛顿大学)
审核:赵杨博
排版:李森(北京工商大学)
终审:梁正、鲁俊群
往期回顾
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢