点击蓝字

关注我们


梁正

清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任、中国科技政策研究中心副主任、公共管理学院教授

I-AIIG



12月12日,《China Daily》刊发专题报道《It’s my face, but it’s not me》,聚焦生成式人工智能被滥用于深度伪造所引发的现实伤害与治理挑战。清华大学人工智能国际治理研究院副院长梁正在接受采访时,从技术扩散、法律责任与治理体系构建等角度,系统阐释了深度伪造问题由“公共风险”向“个体侵害”演变的趋势,指出应通过技术设计、平台责任与法律规范协同发力,推动覆盖“生成—传播—使用”全链条的人工智能治理框架,为应对新型数字侵权和保护个体权利提供制度性回应。



中国互联网络信息中心近日发布《生成式人工智能应用发展报告(2025)》,将“声脸替换”列为治理重点,排在版权侵权、学术不端和科技伦理之前。


清华大学人工智能国际治理研究院副院长梁正表示,治理这一问题“重要但仍具挑战性”。


他指出,从一开始,中国、美国等主要国家就认识到此类技术滥用的负面影响,最初主要是因为虚假信息等危害公共利益的问题。但随着技术普及,滥用情形已从社会层面转向个人层面,直接损害名誉和商业利益。


然而,梁正强调,由于用户群体庞大且分散、技术门槛又极低,受害者很难阻止这类滥用行为,也难以及时追溯源头和传播路径。因此,更可行的治理方式是在技术设计和法律制度两方面同步推进,构建覆盖从生成到传播的全链条治理模型。


在这一链条中,用户必须依法获取他人个人信息,遵守《个人信息保护法》和社会规范;而科技企业则需在链条的各个环节承担并具备相应的监督责任与能力。在此方面,他重点提到当前正在推进的两项技术方案。


今年3月,多个部委联合发布了《人工智能生成合成内容标识办法》,鼓励服务提供方在内容中嵌入数字水印等不可见标记。与传统水印不同,数字水印对肉眼不可见,但可被机器读取,因为它们被嵌入在内容的源代码中。它们可帮助平台在内容上传和传播过程中识别合成内容,并在受害者维权时,为潜在的司法程序提供可供取证的证据。


产业界和学术界研究人员也在完善一种触发机制,可自动识别 AI 生成的图像和视频中的敏感内容并采取行动。梁正指出,文本领域已经具备成熟的类似机制,可使平台屏蔽或限制含有色情或暴力等关键词的内容。他预计类似技术将在不久的将来有效应用于视觉媒体。


不过,梁正也提醒,部署这些技术仍较困难且成本高昂,但各方仍会推动前进。“在设计阶段更早地嵌入安全校验虽然可能限制部分产品或平台功能,但能避免许多后续可能失控的问题。”他说。


在法律层面,梁正认为,处理此类侵权行为的核心在于清晰界定链条中各方的责任,并根据其具体行为、动机和造成的损害作出判断。例如,在某位明星的脸被替换进商业直播的案例中,创作者作为行为的发起者和获益者,应承担主要责任。在其他情形中,平台或分发者也可能成为主要责任主体。


“现有法律提供了参考原则,但法官必须综合考量每个案件的完整情境。”梁正表示。他指出,尽管中国对链条中各方权责义务的规定比许多国家更为细致,但由于技术持续带来意料之外的新场景,法律框架不可避免地滞后于技术发展。


不过,规制此类滥用并不必完全依赖专门的互联网法或人工智能法,也可以、也应该依托民法中关于肖像权、名誉权和财产权的规定,形成综合性的监管体系。


随着 AI 生成的文本、图像和视频在互联网上泛滥,过去“眼见为实”的判断标准正被削弱。梁正指出,在电视或互联网时代,虚假、不完整或误导性信息本就长期存在。新的变化在于,这个时代对人们提出了更高要求——要更加负责任地使用技术作为工具,并不断提升自身的常识能力和数字素养。


图片
图片
图片

内容中包含的图片若涉及版权问题,请及时与我们联系删除