点击蓝字
关注我们
刘典
复旦大学中国研究院副研究员、清华大学人工智能国际治理研究院战略与宏观项目主任、技术经济与管理研究总编辑
2024年9月14日,国家互联网信息办公室发布《人工智能生成合成内容标识办法(征求意见稿)》(下称“《办法》”),旨在规范人工智能生成合成内容标识,确保技术在文化传播、信息管理中的可控性。在此之前,我国《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》与《生成式人工智能服务管理暂行办法》已提出就算法生成合成信息、深度合成信息内容(包括图片、视频等)履行标识义务的概要性规定,但仍然留下了算法领域的空白,比如未对标识的具体类型、“显著”的程度认定方式等概念做进一步释义。
《办法》一经公布便引起广泛讨论。如何保持立法灵活性、避免采取“一刀切”的政策抑制了产业活力,是我国人工智能相关立法的重要要求。面对快速发展的人工智能产业,特别是生成式人工智能技术的广泛应用,如何在规范管理和促进产业创新之间取得平衡,成为了当下政策制定者和企业共同关心的核心问题。
图源:网络
在全球竞争日益激烈的科技产业中,企业的创新和灵活应对能力是保持竞争力的关键。因此,在推动政策落实的过程中,提前考虑产业发展脚步、为企业预留足够的空间显得尤为重要。而核心是充分考虑科技、产业发展和信息内容管理两个维度的规范与监管要求。

前者是通过发展优先的思路进行立法,以改革创新促发展,有效防范和化解风险的方式,也是当前各国对人工智能立法定位的共同做法。后者则是突出体现了生成内容全覆盖、生成过程全流程管理两大特点。随着人工智能技术的快速发展,立法和制度建设的完善迫在眉睫。然而,人工智能发展面临的不确定性及其跨学科、跨领域的特性,使得如何平衡监管与创新成为立法者亟需解决的挑战。
首先,人工智能作为前沿科技,正在改变全球产业结构和经济模式。为应对这一变化,立法不能一刀切,必须灵活应对快速发展的技术形态。当前,人工智能技术已经渗透到社会的各个层面,无论是日常生活中的智能客服,还是工业生产中的自动化设备,人工智能技术的应用领域广泛且复杂。因此,若仅强调信息内容管理的立法考虑,容易忽视不同应用场景的具体需求,导致对科技创新和产业发展形成不必要的限制。

其次,立法应给予产业发展足够的空间。立法需要从企业的实际需求出发,避免过多的强制性条款,尤其是在应用场景较为单一、舆论风险较低的情况下,应该允许企业自行选择标识的形式和位置。通过这样的灵活性设计,立法可以更好地兼顾创新与监管的双重目标。
当前《办法》旨在通过规范性要求,提升人工智能生成内容的透明度,防止虚假信息传播,保障公众的知情权和信息安全。然而,《办法》也需要充分考虑科技、产业发展所需的预留空间,避免成为完全内容管理性的规范,为不同可能的衍生领域制定不同的规范方式。

一方面,随着产业的发展将会出现明显分层的应用场景。生成式人工智能技术的应用领域广泛,包括智能问答、文档摘要、代码助手、广告设计等。这些应用通常具有较强的工具属性,并非面向公众的大规模舆论传播工具。对于这类低舆论风险的应用,过度的标识要求不仅可能显得不必要,还会增加企业的运营成本,削弱其竞争力。事实上,这类生成内容通常需要经过使用者的调整和审核,最终呈现给用户的内容已不完全依赖于生成式AI技术,舆论风险较低。因此,《办法》在执行时可以对不同应用场景进行分级管理,对于工具性应用,可以免除强制性标识要求,从而为企业创新提供更多空间。
另一方面,规范或需细化B端和C端应用场景规范。在B2B场景中,企业客户和开发者通常具备足够的技术认知能力,能够判断生成内容的来源,并不会因AI生成内容的标识问题产生混淆。对于这类用户群体,标识要求的必要性相对较低。在这种情况下,API提供方的角色更接近于技术支持方,内容生成和传播的责任应由应用开发者或终端用户承担,而不是API服务提供方。因此,在《办法》中对B端和C端应用进行区分管理,或能进一步提升分级管理的治理效率。
《办法》作为一项针对生成式人工智能内容的管理规范,试图在推动技术应用和保障公众知情权之间取得平衡。然而,在实际执行中,如何为企业提供更多的灵活性,减少不必要的监管负担,同时确保标识的有效性和透明度,是目前各国均面临的主要挑战。

针对当前的《办法》,立法者可以考虑通过分级管理、结果管理等方式,在规范性和灵活性之间找到更好的平衡点,既保护公众利益,又为产业发展预留足够的空间。比如,生成内容在被广泛传播后,尤其是在社交媒体等平台上,显式标识很容易通过截图、剪辑等方式被篡改或删除,这使得生成服务方难以对内容的传播和使用负全责。如果《办法》在标识责任上实行“结果管理”,即将更多的责任转移到内容的使用者和传播者身上,这样既可以减轻AI服务提供方的负担,也能够提高整个内容传播链条的责任意识和管理效率。此外,也可以考虑提供多种标识方法,适应更多产品形态,实现分级管理。
《办法》及《标识方法》充分考虑产业发展与信息内容管理两种立法思路,通过灵活的标识规则设计,最大限度减少内容标识对于用户使用的影响,从而保障技术创新和产业发展的同时,维护信息内容的透明度与安全性。
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
来源 | 本文转载自“刘典”,点击“阅读原文”获取更多内容
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢