点击蓝字

关注我们


薛澜

国务院参事、清华大学苏世民书院院长、人工智能国际治理研究院院长、中国科技政策研究中心主任



点击蓝字

关注我们


近日,清华大学互联网治理研究中心学术委员会主席薛澜教授以《全球视野下的人工智能治理——挑战、机制与未来路径》为题在2025中国数字经济发展和治理学术年会发表主旨演讲。本文根据薛澜教授现场发言内容整理。


薛澜教授发表主旨演讲


本文根据薛澜教授现场发言内容整理。


近年来,随着人工智能技术的快速发展,人工智能的治理问题也越来越受到社会各界的广泛关注。人们逐渐意识到,人工智能不仅是一项前沿科技,更是一种深刻影响社会结构、经济体系和全球治理格局的系统性力量。因此,如何在推动人工智能技术创新的同时建立起科学有效的治理机制,已成为当前技术政策研究与实践的核心议题。2025年4月25日,习近平总书记在主持中共中央政治局集体学习时指出,人工智能带来前所未有发展机遇,也带来前所未遇风险挑战。他强调,要把握人工智能发展趋势和规律,加紧制定完善相关法律法规、政策制度、应用规范、伦理准则,构建技术监测、风险预警、应急响应体系,确保人工智能安全、可靠、可控。习近平总书记的重要指示为我们完善人工智能治理提供了重要的努力方向。

然而,在现实语境中,人工智能治理仍存在一定程度的认知误区。一种较为典型的观点认为,人工智能的发展和应用仍在初始阶段,此时提出治理问题可能会过早地对技术创新形成不必要的束缚。本质上说,这样的看法一方面低估了人工智能技术给社会可能带来的风险和危害,另一方面,也低估了治理机制在引导和塑造技术发展过程中可以起到的关键能动作用。事实上,治理并非创新的对立面,而是实现人工智能健康、有序、可持续发展过程中不可或缺的制度性支撑。

此外,人工智能的发展也无法脱离国际环境而孤立前行。在全球化语境中,中国在人工智能领域的崛起虽然取得了显著成效,但在技术创新与治理模式之间的权衡上仍面临诸多挑战。当前国际治理体系高度碎片化,不同国家与地区在治理理念、制度安排与政策节奏上差异显著,协调难度不断上升。在此背景下,如何为中国人工智能的发展探索出一条契合自身国情、具有全球适应力的发展路径,已成为亟待解决的重要现实问题。

在展开对治理问题的讨论之前,我们有必要先回顾和理解人工智能技术正在经历的一场深刻变革。这场变革不仅关乎技术层面的更新迭代,更关乎整个人工智能生态系统的重构与再定位。

一、人工智能技术生态的演进与变革

当前人工智能技术生态系统的核心特征,正在由“工具集成”向“平台统摄”发生根本转变。在早期,人工智能主要以特定应用程序或算法模型的形式存在,具有高度专业化、碎片化的特征。而近年来,伴随大模型(Foundation Models)与多模态架构的发展,人工智能逐渐形成以平台为中心的生态格局。以Open AI、Anthropic、Google、深度求索、字节、百度、阿里、智普等企业开发的平台型人工智能体系,不仅整合了算法模型、数据资源和计算能力,而且通过API接口、插件机制和多边生态合作,逐渐形成集研发、部署、服务、用户交互和治理于一体的完整系统。这种生态结构的重构,使得人工智能不再是单一的技术工具,而成为一个能够持续学习、适应与演化的系统性存在。平台化带来了生态外部性与路径依赖的风险,也对治理提出了前所未有的复杂要求。

2025年可以被视为人工智能体(AI Agent)发展的关键节点。年初,Open AI推出了名为“Operator”的智能体系统,标志着人工智能从“被动响应式模型”向“主动任务执行系统”的加速转型。这类系统不仅能够执行复杂任务,还具备调度其他模型、记忆上下文信息并与用户持续交互的能力,具备了一定的“类自主性”。与此同时,国内企业也在积极布局。例如,智谱在智能体技术路径上持续探索,推出了能够完成多轮交互、任务拆解与执行的自主智能体,形成了从通用模型到垂直智能体的初步生态链。这一趋势表明,智能体不仅是技术演进的自然延伸,更是平台间竞争的新赛道。

大模型之间的竞争态势也在不断变化。自2022年以来,针对通用大模型能力的评估框架迅速发展,包括MMLU(Massive Multitask Language Understanding)、Hella Swag、GSM8K和GAOKAO Bench等在内的多项基准测试被广泛使用。不同测试标准常导致模型表现排名的变动,但总体来看,Open AI的GPT系列、Anthropic的Claude以及Google旗下DeepMind的Gemini系列在综合性能上依然领先,国内大模型如GLM、通义千问、百度文心、深度求索等则在特定场景(如中文处理、文档问答)中表现优异。

值得关注的是,人工智能在人类认知领域的进展速度令人惊叹。在数学奥林匹克竞赛题目测试中,人工智能模型已逐步具备解决复杂题目的能力,部分模型在解题准确率上甚至超越了人类参与者的平均水平。这种技术的跃升,不仅增强了人们对通用人工智能(AGI)可行性的预期,也加剧了社会各界在应对人工智能发展时加强治理的紧迫感。

二、人工智能治理的内涵与理论框架

人工智能治理(AI Governance)是一个多维度、多工具、多主体参与的动态系统性过程。其目的不仅在于防范潜在风险,更在于塑造人工智能的发展方向与应用边界,使技术的进步与社会价值相协调。治理既包括伦理与原则的制定,也包括政策激励与市场规制,还涉及标准建设与国际协调。可以说,人工智能治理是规范、引导、协调人工智能发展的制度总和。目前较为通行的人工智能治理框架,通常可以分为三个层次:

(1)伦理与价值维度——该维度关注的是人工智能系统在开发与应用中应当遵循的基本伦理原则,包括但不限于:

1. 安全性与可控性:确保系统在设计上能避免失控风险;

2. 透明性与可解释性:保障用户了解人工智能系统的运作机制与决策过程;

3. 公平性与非歧视性:防止人工智能在算法训练或部署过程中加剧社会不公;

4. 责任可追溯性:明确人工智能决策背后的责任归属。

在这一方面,中国人工智能治理专家委员会于2019年提出了“负责任人工智能”的八项治理准则。欧盟、OECD、IEEE等国际组织也相继发布了多套人工智能伦理框架。例如,OECD于2019年发布的《人工智能推荐原则》明确提出了五项以价值为基础的指导原则,以促进“可信人工智能”的发展与负责任治理。

(2)政策支持与市场激励维度——治理不仅是限制,更是塑造和激励。政府可以通过财政投入、研发资助、基础设施建设、人才政策与公共采购等方式,为人工智能创新提供制度土壤。同时,也需要通过反垄断政策、数据共享机制、中小企业扶持等手段,维护技术创新生态的多样性与可持续性。例如,2017年发布的中国《新一代人工智能发展规划》提出以“三步走”战略推动人工智能产业发展,强调国家主导与企业协同的创新路径。这是一种典型的政策驱动型治理结构,具有较强的系统组织能力与资源整合能力。

(3)规制与标准维度——规制是治理的重要组成部分,但不应被狭义地等同于“限制”。其内涵包括:

1. 法律法规:如《数据安全法》《个人信息保护法》《算法推荐管理规定》等,为人工智能治理提供法理依据与监管框架;

2. 技术标准:包括模型训练规范、数据处理接口标准、安全评估机制;

3. 责任机制:界定平台方、开发者、使用者等多方责任边界;
      4. 合规评估:建设风险识别、分级管理、动态评估与退出机制。

当前,欧盟《人工智能法案》(AI Act)已进入最终立法阶段,其将人工智能系统分为“禁止类”“高风险类”“有限风险类”与“最低风险类”,并据此提出差异化监管要求,成为人工智能规制分级管理的重要案例。如上所述,人工智能治理既具有多元的目标导向,也依赖多样化的治理工具,涵盖传统的行政法规,以及大量的政策措施、自律机制和技术手段。多元工具的协同应用,有助于在技术发展快速变化的环境中实现敏捷治理。

三、人工智能治理的三重功能:风险防控-社会建构-市场塑造

(一) 人工智能的风险防控

现有的人工智能技术系统由于其复杂性和不可解释性,内生性地带来一些潜在的技术失灵风险。一旦被滥用或用于恶意目的,其危害可能超出技术范畴,在关键领域引发局部性损害,甚至演变为系统性风险。因此,理解人工智能风险治理的必要性与紧迫性,需对其潜在风险进行系统分类、剖析成因,并找到相应的解决办法。

人工智能风险的分类有很多种,图灵奖得主Yoshua Bengio于2025年牵头发布的《国际人工智能安全报告》,将人工智能带来的各种风险划分为三大类(Bengio et al., 2025):

1. 恶意使用风险(Malicious Use Risks):指人为使用人工智能系统进行伤害、操控、欺诈等非法或不道德行为;    2. 技术失灵风险(Malfunction Risks):即人工智能系统在正常使用情况下由于故障或技术失灵带来的不良后果;    3. 系统性风险(Systemic Risks):指人工智能大规模应用后可能引发的广泛性负面社会影响。

人工智能恶意使用的风险目前已经比较常见。2023年,英国某知名公司遭遇一起令人震惊的深度伪造诈骗案件。该公司位于香港的一位员工应公司“上级”的邀请参加视频会议,并根据对方指令将约2亿港元汇入多个账户。事后调查发现,除该员工本人外,所有“参会者”皆为由生成式人工智能所合成的虚拟影像,通过深度伪造(Deepfake)技术逼真模拟真实的声音与面貌。这一事件凸显了生成式人工智能在欺诈应用中的巨大风险,传统的语音、视频验证机制在此类情况下几乎失效。从治理角度看,如何在制度层面防范生成式人工智能被恶意利用,亟需得到更高优先级的回应。

人工智能技术失灵比较典型的情况就是所谓“幻觉”(hallucination)的产生,即模型生成与客观事实不符,甚至完全虚构的信息内容。这在很多对准确性要求很高的应用场景来说至关重要。例如,近年来不少律师事务所尝试将GPT等模型用于法律案件梳理与检索,但结果并不理想。最著名的案例之一是2023年美国某律师在提交诉状中引用了数个根本不存在的“判例”,经查这些判例均由人工智能编造,导致法院当庭指责该律所严重失职。目前包括美国律师协会在内的多个行业协会已发出预警,要求在法律实践中使用人工智能辅助时必须设立严格的验证机制。

人工智能带来的系统性风险包括对就业、知识产权、社会认知等方面的影响。当前最受关注的风险之一,是生成式人工智能与现有版权保护机制之间日益凸显的冲突。2023年底,《纽约时报》起诉Open AI和微软,指控其在未经授权的情况下将大量新闻内容用于大模型训练。这一案件触及人工智能治理中极为复杂的议题,包括训练数据的知识产权归属问题,“合理使用”边界如何在训练场景中界定,以及模型生成结果是否构成“衍生作品”等。尽管该案件尚未审结,但已经促使多国监管机构重新审视人工智能与版权之间的关系。

在上述三类风险中,人类社会面临的最大潜在风险就是技术失灵中的最可怕的失控情况,亦即当人工智能发展到通用人工智能(AGI)或超级人工智能(ASI)的阶段,人类丧失对其控制权。早在1950年,人工智能奠基人图灵就在《Mind》期刊发表的经典论文中提出“child-machine”的构想,预见了人工智能可能具备自我学习与自主演化的能力(Turing, 1950)。机器将通过实验学习不断优化自身,行为结果并不完全由人类预设。今天,图灵这一预测似乎正一步步成为现实。随着人工智能系统拥有代码生成、自我优化甚至模拟人类行为的能力,其“不可预测性”日益显现。牛津大学Bostrom(2014)提出“价值锁定(Value Lock-in)”风险,即早期设计的不完美目标函数可能在AGI中被永久嵌入,带来不可逆的灾难性后果。因此,可控性问题已成为人工智能风险治理领域的最核心问题之一。

由此引发的一个根本性治理问题是:当人工智能技术发展到某一阶段,是否应该有“暂停”的选项?在生命科学领域,伦理底线的设立已较为成熟。例如,人类胚胎编辑、克隆等研究方向已在国际上形成广泛共识,不少国家设立了明确禁区。人工智能是否也应设定类似的“伦理红线”? 近年来,该问题的紧迫性与争议性显著上升。2023年,超过1000位人工智能专家与科技领袖联合签署《暂停大型人工智能实验公开信》,呼吁对超过GPT-4级别的人工智能系统实施“自愿性开发暂停”,以等待社会共识与治理机制的建立。这一行动虽颇具争议性且在现实中难以实施,但也凸显出科技界内部对于“不可控风险”的现实焦虑。

(二)人工智能的社会建构

人工智能治理的目的,不仅是“应对风险”,更重要的是塑造人工智能的社会-技术系统(socio-technical systems)、支撑相应的制度架构的协同演化,并最终形成一个兼具创新性、安全性与公平性的社会应用生态。正如哈佛大学肯尼迪政府学院科学技术学教授Sheila Jasanoff所指出:技术并非价值中立的工具,它始终承载着规范、制度与权力结构,并在社会实践中被再生产与不断重塑(Jasanoff, 2004)。因此,人工智能治理的意义,绝不仅仅是画出“禁区”,更在于铺设“通道”和“轨道”。技术从来不是“拿来即用”的工具。任何人工智能系统的成功部署,必然依赖于其与社会制度、法律规制、基础设施和文化环境的深度耦合。这就是“社会技术共构”的基本逻辑。

一个典型的例子是公路交通系统。从汽车技术诞生到广泛普及,人类社会配套建设了道路网络、交通信号及交规体系、驾照制度、保险机制、加油与维修网络等一系列技术及社会运行机制,来保障让汽车真正成为一种社会生产与生活系统的组成部分。长远来看,人工智能的发展同样需要经历一场复杂的“社会适配”过程。无论是医疗、教育,还是政务领域的人工智能应用,其有效落地都依赖于数据治理、伦理审查、接口标准、责任认定等制度要素的协同支撑。这些制度性安排本身,即构成了人工智能治理不可或缺的一部分。以医疗场景为例,即使人工智能系统的诊断准确率优于医生,其应用仍需满足如下治理条件:(a)明确的数据隐私合规机制;(b)医疗责任归属的法律认定;(c)医患之间的信息透明;(d)医保报销政策的对接。虽然在底层算法与模型结构上,人工智能已取得显著进展,但其“落地”往往滞后于技术本身。其根本原因之一,就在于缺乏“场景级治理配套”。如果缺乏这些制度安排,人工智能再先进也难以获得信任和合法性。因此,治理不仅是防范风险的“保护性屏障”,更构成了推动人工智能融入现实社会的“适应性基础设施”。

(三) 人工智能的市场塑造

除了风险防控和社会建构,治理还担负着人工智能产业市场塑造的功能。人工智能的治理深刻影响市场的形成与演化路径,具备“产业塑造”与“竞争调控”的重要作用。首先,准入门槛的设定直接决定了哪些企业有机会参与人工智能产业的发展。例如,如果高风险人工智能系统必须满足严格的测试认证要求,中小企业可能因合规成本过高被排除在市场之外;反之,则可能引发“劣币驱逐良币”式的无序竞争。同时,人工智能发展中也面临典型的“路径依赖”风险。一旦特定的模型架构、数据资源或工具链取得先发优势,就可能在非最优技术路线上造成事实性的“平台锁定”。因此,有效的治理手段可以通过技术标准开放、公共算力共享、基础模型开源等,来避免路径锁定的问题。

在当前人工智能治理实践中,开源常被视为实现“普惠化人工智能”的重要途径,然而其也伴随潜在的安全风险与责任不清等问题。相较之下,闭源虽然有利于系统控制与风险管理,却可能加剧能力垄断与模型路径依赖。因此,一种可能的治理思路是在制度设计上区分不同风险等级与具体应用场景。对于一般性用途,可鼓励开源共享;而对军事、信息操纵与金融系统等高风险应用领域,则应设定更严格的开源门槛与责任机制。

实现人工智能治理的三重功能——风险防控、社会建构与市场塑造,离不开政府、企业与社会多元主体的协同共治。政府不仅是监管者,更是市场塑造者;企业不仅是人工智能技术创新的领先者,也是人工智能治理的前沿实践者;而社会各界既是人工智能技术的使用者,也是推动其治理理念生根落地的重要力量。只有政府、企业和社会摆脱传统的“猫鼠博弈思维”,转向协同治理和敏捷治理的思路,方能在推动技术广泛应用的同时不断优化治理体系,在制度演进中实现技术创新与社会价值的协同共生。

四、全球人工智能治理的困境与未来走向

人工智能治理不仅是国内问题,更是一个全球性重大挑战。人工智能的跨境传播特性、影响范围以及所蕴含的系统性风险,决定了人工智能的治理不能局限于国家层面。正如气候变化、传染病防控一样,人工智能也正在成为全球治理体系中的“新型全球公共事务”。然而,现实中人工智能的全球治理推进面临诸多挑战,表现为治理机制碎片化、节奏不一致、路径分歧与地缘政治化倾向等多个维度的结构性困境。

(一) 技术路径不同引发的治理差异化

各国在人工智能技术发展路径上的差异,不仅表现在技术选择和应用重点上,也体现在对“何种风险应被治理”的认识上存在本质分歧。例如,2024年初,国产大模型DeepSeek在国内引起业界广泛关注,其在搜索增强、中文语义建构与推理能力方面突破显著。这一新路径的发展,也带来治理工具如何适配的现实问题:是否要对具备高能力的国产大模型施加与国外头部模型相当的评估要求?是否要对中文训练语料设定特殊保护机制?这些问题的回答,在不同国家政策中并无统一方案。这说明,全球治理机制之间需要互相学习,互相借鉴,也需要在“原则一致”与“路径多元”之间找到合理平衡,避免以一种技术范式凌驾于他国实践之上。

(二) 治理节奏与技术发展的错配

人工智能技术发展呈现指数型演进,而治理体系的演进则普遍存在滞后与碎片化现象,导致出现典型的技术发展与技术治理之间的步调不一致。监管政策的制定、立法程序、标准建设等过程均具有特定的周期性与协商性等特征,很难与技术迭代的速度实现同步对接。例如,Open AI发布GPT-4不到半年,国内外即有多款对标模型上线,但多数国家对大模型的法律分类、数据使用边界、能力管控机制仍未落地。在此背景下,“边创新边治理”“沙盒实验”与“敏捷治理”成为现实可行的治理方式。OECD提出的“灵活监管”(Agile Regulation)理念就强调,应以适应性制度嵌入快速演进的技术环境,建立“监测—评估—调试—再立法”的周期型治理流程。

(三) 全球人工智能治理机制复合体面临的治理困境

当前,全球范围内已形成多个围绕人工智能治理的倡议与机制,但这些机制之间缺乏层级关系与协调机制,形成所谓的“机制复合体”(regime complex):

1. 联合国系统中的教科文组织(UNESCO)发布了《人工智能伦理建议书》;    

2. 经合组织(OECD)制定了人工智能推荐原则,并推动成员国采纳;    

3. 欧洲联盟制定了《人工智能法案》,试图构建最系统的人工智能监管立法;

4. 世界经济论坛(WEF)则设有人工智能治理的多利益攸关方平台;    

5. GPAI(全球伙伴关系人工智能组织)试图在技术层面达成国际共识。

然而,这些机制在目标设定、治理工具、成员构成与规则设计等方面存在不同程度的重叠乃至冲突。例如,OECD的“自愿性软法”机制与欧盟“强制立法”机制之间的协调性就一直是外界质疑的焦点。

虽然“机制复合体”的现实在一定程度上反映了全球治理的多元协商逻辑,但也带来了一系列现实难题:如(1)治理效能低——重复设立规则、标准不统一;(2)话语权失衡——部分机制被大国主导,发展中国家缺乏影响力;(3)合规困境——企业面临不同国家制度之间的合规冲突,增加成本。因此,全球治理需要建立跨机制协调平台或规则对接机制,推动在基本原则层面一致性的前提下,允许在细则上保持多样性。

(四) 地缘政治与对立化趋势

当前最为严峻的全球治理障碍,是地缘政治冲突对人工智能合作形成的壁垒。原本可以在技术、伦理、标准等层面展开广泛合作的人工智能治理议题,越来越多地被纳入战略博弈的框架之中。例如,从技术与成本角度来看,通用人工智能(AGI)的开发可以效仿国际热核聚变实验堆(ITER)项目的方式,由全球主要国家共建联合实验室,在统一的伦理与安全机制下推进,既可以分摊成本,也可以更好地管控风险。然而,现实却是,AGI 的研发逐渐演变为少数国家主导、大型科技企业牵头的“竞赛型项目”,而全球协同开发与风险共担的路径,在当前地缘紧张格局下,几乎已成为“天方夜谭”。再如开源模型领域,Meta的LLaMA系列与深度求索的Deepseek,其开放性促进了中小企业和社会广大人群采用人工智能技术的积极性。然而,美国部分政策推动限制高参数量模型开放的门槛,同时警惕其被所谓“对手国家”利用,凸显出开源闭源这一商业决策的行为本身也被政治化。在国内,亦有声音担忧全面开源可能削弱技术壁垒、加剧成果外溢,使得本来是企业策略的开源闭源选择被镶嵌进了国际竞争的制度博弈中。

(五) 人工智能治理的未来发展趋势

面向未来,我们可以清楚地看到,人工智能治理如果失去合作性,将无法应对跨境风险;如果失去包容性,将加剧“智能鸿沟”;如果失去合法性,将削弱公众信任。正因如此,人工智能治理必须回归到全球合作的正确轨道上,形成将人工智能治理作为“全球公共产品”的全球共识和制度认知。所谓公共产品,指的是具有“非排他性”与“非竞争性”的公益性产品或服务,而这恰恰就是人工智能治理的本质。与气候安全、国际和平、数字互联等全球性公共产品一样,人工智能治理给国际社会带来系统安全性、公平性与风险防范能力,是全世界所有国家的所有人都应当平等享受的权利。因此,为了改善人工智能的全球治理,国际社会应该采取如下措施:

1. 在联合国体系下,就全球人工智能道德与治理原则形成共识;

2. 推动建立在联合国框架下的多元人工智能治理协调机制;

3. 建设国际人工智能能力中心,帮助全球南方国家提升人工智能发展与治理的能力;

4. 促进国际安全研究机构积极合作,形成人工智能安全标准及评估认证流程。

五、结语

人工智能正处于从“工具型技术”向“生态型技术”转型的历史拐点。从早期的算法突破与模型演进,到当下的平台构建与场景深度融合,人工智能技术正在日益嵌入人类社会的运行机制之中。与此同时,其潜在风险亦呈现出更复杂、更系统化、更难预测的特征,深刻挑战现有的治理能力、制度设计与国际协调体系。因此,人工智能的治理并非人工智能技术发展的附属议题,而是与人工智能技术共同进化伴生的“制度生态构建工程”。治理的任务既要面向“安全风险管控”,也要着眼“社会结构塑形”,更要推进“市场机制构造”,只有三者同步协调发展,才能真正保障人工智能以安全、可信、公平的方式造福全人类。



关 于 我 们



清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG


来源 | 本文转载自“清华大学互联网治理研究中心”,点击“阅读原文”获取更多内容



内容中包含的图片若涉及版权问题,请及时与我们联系删除