点击蓝字

关注我们


梁正

清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任、中国科技政策研究中心副主任、公共管理学院教授

I-AIIG






当前,人工智能(AI)生成合成内容逼真程度不断提高,虚假消息泛滥、恶意内容生成等风险日益凸显,不但侵害了个人正当权益、严重侵蚀社会信任根基,而且会阻碍人工智能产业的长远发展。2025 年3 月,国家互联网信息办公室等四部门联合发布《人工智能生成合成内容标识办法》(以下简称《标识办法》),配套的强制性国家标准《网络安全技术 人工智能生成合成内容标识方法》(GB 45438-2025,以下简称《标识标准》)、《网络安全标准实践指南-人工智能生成合成内容标识 服务提供者编码规则》(TC260-PG-20252A,以下简称《实践指南》)同时出台,标志着我国人工智能生成内容治理迈入新阶段。

01

人工智能生成内容治理的风险挑战

以ChatGPT、DeepSeek 为代表的新一代人工智能技术的快速发展,为我们的日常工作和生活带来便利的同时,也引发了一系列严峻挑战。特别是AI 技术具有低门槛、普及化、平民化特性,用户只需通过简单的提示语便可“零门槛”生成真伪难辨的内容。这种情况不仅容易破坏社会的正常秩序、引发社会混乱,而且不利于我国人工智能产业的持续健康发展。
(一)虚假内容泛滥,冲击社会信任机制
通过大规模数据集的训练,人工智能大模型可以生成高度逼真的文字、语音、视频等内容,令人真伪难辨。不法分子通过滥用AI 技术、拼接伪造等方式,虚构突发事件、编造公共政策、捏造社会民生领域谣言,误导公众认知,引发社会恐慌,扰乱社会秩序,相关案件层出不穷。截至2025 年5 月,国家网信部门累计处置相关违法违规账号2210 个。公安部在“净网-2025”专项行动中公布了10 起典型案例;截至2025 年9 月,合肥警方已侦破78 起与AI 相关的网络谣言案件,上海市公安局也侦破了15 起利用AI 技术制造谣言的案件。AI 技术的运用使得传统的信息真伪辨别机制开始失效,“眼见为实”的认知观念受到冲击,如果不对人工智能生成的内容进行明确标识,将引发社会信任危机。
(二)责任主体多元复杂,溯源和追责较为困难
人工智能生成内容分为生产、审核、传播、加工等多个环节,涉及数据提供者、技术开发者、使用者、内容传播者等多元主体。当生成的内容对社会公众或个人权利造成侵害时,需要追究相关主体的责任。然而,人工智能生成的内容具有去中心化、跨平台化和跨境传播特征,信息源头容易被隐匿,信息内容容易被大规模篡改和重组。在缺乏明确标识的情况下,人工智能生成的内容不仅难以保护内容创作者的合法权益,而且一旦内容构成侵权,追溯责任主体的难度也将增加,并对认定主体责任和义务构成挑战。因此,建立“可识别、可追溯、可问责”的安全防线尤为迫切。
(三)破坏产业生态,阻碍产业健康发展
未标识的人工智能生成内容涉及侵权、造假、诽谤等法律问题。当人工智能应用于金融、医疗、电商等具体场景时,潜在的虚假信息风险将会引发市场波动、医疗误诊、不实宣传等问题,导致平台、开发者乃至用户陷入法律纠纷,最终增加全行业的运营成本,进而破坏产业生态,恶化投资环境。自2021 年起,北京检察机关办理人工智能相关的知识产权检察案件3093 件;自2018 年北京互联网法院成立以来,涉及人工智能的案件数量显著增长;2025 年9 月,北京互联网法院公布了8 个与人工智能相关的典型案例,这些案例涉及因文生图、AI 换脸、AI 带货引发的著作权和人格权等纠纷。
我国高度重视人工智能风险防范和治理,人工智能内容标识制度经历了从原则性规范到精细化规制的演进。2022 年11 月,国家网信办、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,首次提出了针对深度合成内容的标识要求;2023 年7 月,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》,进一步明确了服务提供者对生成内容进行标识的义务。然而,上述规定操作性不足,难以有效应对技术快速发展的现实挑战。2025 年3 月,国家网信办等四部门联合发布《标识办法》以及配套的强制性国家标准《标识标准》,构建了多层次的治理体系,为内容溯源与责任认定提供了依据。

02

我国人工智能标识方案的理念与实践

我国人工智能标识方案(以下简称“标识方案”)坚持遵循“人民至上、务实敏捷、多元协同”的理念,在实际操作中,通过政府统筹、企业落实、行业协同的多元联动机制,将治理理念转化为可操作、可落地的行动策略,实现了“理念引领实践、实践反哺理念”的良性循环。
(一)我国人工智能标识方案的治理理念
标识方案的治理理念体现在价值取向、落地实施、实现策略和场景应用等多个维度。其中,价值维度要注重人民主体地位,实施维度要平衡规范与创新,策略维度要同步治理探索与技术演进,应用维度要紧扣技术趋势与重点场景。
1. 坚持人民至上,以人民为中心
人工智能技术的发展为人类社会的福祉带来了巨大发展机遇和风险挑战,中国的人工智能技术发展与治理策略始终坚持以人民为中心的发展思想,坚持发展为了人民、发展依靠人民、发展成果由人民共享。一方面,标识方案体现了“一切为了人民”的立场。鉴于人工智能生成的内容真伪难辨,严重影响了人民生产生活秩序,我国制定的人工智能标识管理办法旨在保护人民群众免受虚假信息的侵扰,保障人民群众在智能时代的信息知情权和选择权,从而维护最广大人民的根本利益。另一方面,标识方案体现了“一切依靠人民”的治理方法。通过明确从服务提供者、内容分发平台到最终用户的全链条责任,该方案激发了用户群体的监督与参与动力,使每位用户成为标识实施的参与者和虚假内容的监督者,赋予了公众在人工智能治理中的主体地位。
2. 坚持务实敏捷,实现动态平衡
我国的标识方案注重安全与发展动态平衡,坚持问题导向、逐步推进、刚柔并济的策略。一是敦本务实。人工智能治理旨在促进发展,治理的措施必须与实际情况相符合,避免急功近利。标识方案提出显性和隐性双重标识,其中,显性标识便于用户对内容进行区分,通过强制性国家标准划定了规范底线;隐性标识充分考虑了企业之间的能力差异,未向企业提出使用数字水印的硬性要求,而是提出了文件元数据标识等成本低、难度小的可行方法,使企业能够根据自身意愿适时推进、量力而为。二是敏捷动态。我国标识方案坚持技术和管理并重,先解决“有没有”的问题,强调管理手段、标准强制为主,务求落地见效;然后再逐步探索解决“好不好”的问题,以此鼓励有关主体自主加强技术创新,避免低成本低门槛导致的鲁棒性不足。三是韧性开放。标识办法在元数据隐式标识中设置了预留字段,该字段可用于记录安全防护信息,为促进标识技术创新发展和保护标识安全性预留了空间,确保治理效能与技术发展同频共振。
3. 坚持全链条协同,走向多元共治
标识方案覆盖了设计开发、上架分发、用户使用、内容传播和责任追溯的整个流程,明确了生成合成内容服务提供者、内容传播服务提供者、互联网应用程序分发平台、用户、主管部门等多元主体的责任边界,着力回答了“哪些是生成的”“谁生成的”“从哪里生成的”等基本问题,表明我国已构建起人工智能生成合成内容标识的全链条、全主体治理体系。
一方面,标识方案依据服务流程形成了多元共治的生态。生成合成服务提供者作为内容源头,应履行强制标识的义务;应用分发平台作为内容入口,承担前端审核的责任;内容传播平台把控着流通环节,承担核验与提示的责任;用户承担主动声明的责任;网信、电信、公安和广播电视等主管部门,承担监督管理的责任。
另一方面,标识方案通过更加系统化和精细化的策略,提供了清晰、统一、可操作的技术执行方案。标识方案通过《标识办法》《标识标准》《实践指南》三种政策工具同步规划、同步研制、同步实施。《标识办法》解决制度约束问题,《标识标准》解决技术实施问题,《实践指南》解决具体操作问题。这种“组合拳”让企业在监管上少跑腿,在技术上多创新,以易于执行的约束条件来保障治理敏捷简便,用明确的约束机制来减少技术创新的后顾之忧。
(二)我国人工智能标识方案的治理实践
2025 年3 月,国家网信办等四部门印发了《标识办法》,并配套了国家标准和《实践指南》,标志着人工智能内容治理迈入新阶段。标识方案发布以后,相关主体相互配合,实施工作落实良好,为人工智能健康有序发展提供有力保障。
1. 各级政府:统筹协调,积极作为
在标识方案发布后,中央网信办于2025 年4 月启动了“清朗·整治AI 技术滥用”专项行动,推动生成合成内容标识加速落地;截至2025 年6 月,累计处置违规小程序、应用程序、智能体等AI 产品3500 余款,清理违法违规信息96 万余条,处置账号3700 余个。地方网信部门因地制宜、精准施策,为标识工作顺利推进提供了有力支撑。例如,北京市委网信办组建了AI 内容标识互认互识联盟,推动各平台案例共享、技术互鉴与经验互促;上海市委网信办指导成立AIGC 标识生态联盟,上海人工智能安全治理实验室联合重点大模型企业、网站平台,合力推进标识互认、能力共享与标准协同。
2. 平台企业:系统部署,不断创新
在标识方案实施之际,我国大模型厂商或主流平台如腾讯、抖音、快手、B 站、微博、DeepSeek、昆仑万维等迅速响应,纷纷出台细化规则。2025 年9 月,中国软件评测中心发布《多模态大模型生成内容标识合规模型清单》,该中心针对文生图和文生视频两大主流应用场景,开展了显式标识检测和隐式标识检测工作。评测结果显示,国内主流多模态大模型的合规情况整体向好,被测样本文生图场景完全合规率为81.8%,文生视频场景完全合规率为90.9%,表明大部分主流大模型企业已基本实现合规,但仍有提升空间。此外,重点平台积极履行主体责任,采取了各具特色的行动举措。例如:微博通过策略识别、用户举报等多渠道审核,累计处置违规内容4800 余条,并公布典型案例;抖音建立“红蓝对抗”机制,优化模型对虚假信息的识别能力。
3. 行业协会:政策宣贯,提升能力
提升公众的辨别能力和风险防范意识,是确保标识制度有效运行的社会基础。行业协会积极发挥“催化剂”和“黏合剂”作用,通过公益宣传、科普教育等方式,积极提升全社会对AI 生成内容的认知水平,让标识制度更加深入人心。中国网络空间安全协会在中央网信办网络管理技术局的指导下,持续在全国各地开展人工智能生成合成内容标识政策法规宣介活动,推动网信企业落实标识工作要求。自2025 年3 月起,中国网络空间安全协会已在北京、广东、湖北、重庆、湖南、上海、浙江、江苏、安徽等省市举办9 场活动,累计覆盖政企研用单位700 余家、专业人员8000 余人次。活动重点围绕政策解读、实施要点、企业合规实践等内容,邀请专家实时答疑,并面向企业征集需求建议,帮助企业和公众加深对政策标准的理解,推动技术研发与部署,为标识方案正式施行打通“最后一公里”。

03

我国人工智能标识方案的未来发展路径

当前,我国人工智能生成内容标识制度已初步构建起全链条治理框架,面对快速迭代的技术挑战与日益复杂的应用场景,需推动治理体系从基础性合规向系统性深化的战略转型,从夯实社会认知基础、构筑动态技术防线、拓展国际规则空间三个维度协同推进,为全球人工智能治理贡献中国智慧。
(一)构建多层次社会教育体系,全面提升人工智能素养
人工智能标识制度的有效性,最终取决于社会公众的认知与接受程度。当前,标识实践多聚焦于技术合规与平台部署,但若缺乏广泛的社会人工智能素养作为支撑,标识仅是悬浮于内容表面的符号,无法真正转化为公众的辨别能力和风险意识。为此,必须启动系统性的社会教育工程。一是将人工智能伦理与媒介素养深度融入国民教育体系,向学生揭示人工智能的工作原理、潜在风险及标识的解读方法,从认知源头培育新一代人的批判性思维。二是打造“AI 标识与素养”官方平台,作为公众查询、验证与举报的核心入口;同时,策划“辨识AI 看见真实”等主题宣传活动,通过剖析深度伪造谣言、AI 虚假广告等典型案例,以短视频、互动游戏等通俗形式,将标识知识转化为公众喜闻乐见的内容。三是对新闻、政务、教育等关键行业的从业者进行人工智能素养培训与考核,使其不仅成为标识制度的遵守者,更成为向公众解读标识、传播知识的权威阐释者,从而为标识制度的实施打下坚实基础。
 (二)构筑鲁棒性标识技术体系,持续推动技术创新和应用拓展
一方面,加大技术研发投入,支持轻量化数字水印、频域嵌入、神经网络水印等前沿技术的产学研攻关,明确要求内容在被进行裁剪、压缩、滤波、转码等常见编辑操作后,仍能保持极高的幸存率与极低的误检率。推动标识技术的全模态统一覆盖,建立可持续的技术生态支撑体系,确保标识的长期有效性。鼓励企业设立“漏洞赏金计划”,重奖发现标识系统安全漏洞的研究团队,形成“研发-测试-攻防-迭代”的良性循环。通过构建动态演进、全模态覆盖且具备强大抗攻击能力的技术体系,确保在未来复杂的技术环境中标识保持不可篡改性与可追溯性,筑牢标识制度的信任基石。另一方面,要聚焦医疗、金融、政务和自动驾驶、数字人、智能体等热门领域,拓展标识应用场景。推动添加数据来源、算法置信度等标识,探索添加模型参数、预训练数据时效等标识,挖掘标识在数据溯源、责任界定等方面的功能。持续细化标识颗粒度,从整体逐步向局部转移,实现对特定元素、场景片段的精准标识。探索标识与IPv6 扩展字段编程、全联网标识、元数据编程等技术的结合,为标识监测提供新方向。
(三)深化全球治理参与,推动标识标准国际互认
孤立的标识标准容易形成“数字壁垒”。这将增加跨国企业的合规成本,并限制本国企业出海,因而标识方案和标准必须坚定不移地走向国际,从“国内治理”迈向“全球互认”。一是依托联合国互联网治理论坛(IGF)、世界知识产权组织(WIPO)、国际标准化组织(ISO)等核心平台,系统性地分享我国在隐式标识元数据、全链条治理等方面的成熟经验,积极推动我国标准成为国际标准,掌握规则制定的话语权。二是务实推进双边与区域互认机制。优先在“数字丝绸之路”的合作伙伴网络中将“标识互认”纳入双边数字贸易协定,并在跨境电商、联合新闻发布等领域开展试点,以点带面,逐步扩大中国方案的友好圈。同时,在中美、中欧等关键对话机制下,设立专门的AI 治理工作组,就跨境内容溯源、虚假信息联合治理等议题展开技术对话,寻求互相认可的可行路径。三是着力培育国际化的合规服务产业,鼓励和支持我国第三方检测认证机构“走出去”,为全球企业提供基于中国标准的“一次检测 多国通行”认证服务,从而在商业层面加强我国的规则影响力。通过“多边引领、双边突破、商业固化”的组合策略,使我国的标识方案成为构建全球数字信任基础设施的关键力量。
【本文系“新一代人工智能”国家科技重大专项“新一代人工智能风险防范与治理手段研究”(2023ZD0121700)和国家自然科学基金项目“生成式人工智能在教育场景中的风险监测预警与政策跟踪研究”(批准号:72404163)的阶段性研究成果】




内容中包含的图片若涉及版权问题,请及时与我们联系删除