
《山海夜话》直播回放
《山海夜话》第3期以《数字虚拟人信息服务管理办法(征求意见稿)》为核心切入点,汇聚技术、平台与司法三大核心视角。以下为直播的文字回放,共计17031字。
直播简介回顾
数字人出现问题时,谁来承担责任?《山海夜话》第3期深度解读:数字虚拟人的法律与治理边界


主持人:法律并未试图对数字人作出明确定义,而是通过列举其特征和服务场景,将其纳入现行互联网治理体系之中。因此,在讨论如何监管之前,有必要先厘清监管对象的具体内涵。首先有请北京理工大学光电学院教授翁冬冬老师,从技术与产业观察的角度,对数字虚拟人进行基础分类。当前数字虚拟人主要可分为哪些应用场景?例如,是否包括传播展示类、交易转化类、陪伴互动类,或政务服务、企业服务类。不同场景更容易引发哪些法律争议?
翁冬冬(北京理工大学 光电学院 教授、数字栩生CTO):数字人是一个较为宽泛的概念,不仅包括其外在形象,也涵盖支撑该形象背后的大模型系统,这些构成一个完整的体系。目前,公众接触较多的数字人应用场景主要包括:企业展厅及博物馆中的线下接待型数字人、线上用于直播带货的主播代理型数字人、电影及AI短片中用于生成影视内容的数字人,以及与大模型结合、以实时陪伴或教育为目的的可交互型数字人,其种类较为多样。
从价值角度看,各类数字人各有用途,但目前问题较为集中的领域主要有两个方面:一是影视领域,因其使用数字人的数量较多,且数字人外观涉及的问题相对复杂,相较于博物馆等场景更为突出。二是直播带货场景,数字人可能与现实世界中的真实个体产生关联,进而引发肖像权等法律争议。另一个值得关注的是陪伴型数字人,此类数字人不仅在外貌上拟人化,还可能与用户建立较为亲密的关系,而这种关系是否处于可控状态,亦需审慎考量。因此,上述两类场景均存在值得深入探讨的问题。
主持人:从产业视角看,分类不仅服务于研究更关乎合规实践。因此,想请教蚂蚁集团的冯总,请您从资深互联网法务的角度出发,放眼整个AI产业:在当前行业共识中,哪些类型的业务已被明确纳入新规的监管范围?又有哪些产品形态仍处于难以界定的模糊地带?
冯帆(蚂蚁集团 高级法务专家):正如翁教授所提到的,数字人在直播带货、博物馆等具体场景中已有广泛应用。这些分类主要是基于使用场景的维度。从互联网行业的整体视角来看,我们对数字虚拟人本身也有一个产品层面的分类,这一点值得进一步探讨。目前,业内通常将数字虚拟人划分为两大类:一类是身份型数字人,例如杭州亚运会中的虚拟数字火炬手,以及内容平台上常见的虚拟偶像,这类数字人的核心在于其所代表的身份及其身份特征。另一类是服务型数字人,包括博物馆中具备数字人特征的形象,其本质目的在于提供服务。此外,互联网场景下的客服机器人若以数字人形态呈现也属于此类,因其核心功能是提供服务。
根据国家网信办最新发布的数字人管理新规,这两类数字人均可在定义中找到对应依据。新规对数字虚拟人的定义强调其需模拟人类外貌,并具备声音、行为交互能力或性格特征。上述两类数字人通常均具备人类外貌模拟、声音或行为模拟等要素,若符合该定义,则自然落入新规的监管范围。
然而,在“模拟人类外貌”这一核心要素上仍存在一定解释空间。例如,模拟卡通形象是否属于模拟人类外貌。又如,仅提供一个静态头像,不具备其他拟人化特征或交互能力,是否构成对外貌的模拟。这些问题在行业内尚需进一步澄清。就个人观点而言,若某一卡通形象具备明确的人类头像、躯干等结构,并拥有声音或动作等拟人特征,则应纳入新规监管范围。但若仅为一个简单、静态的头像标识,不具备任何互动或拟人化能力,则可能不属于新规所指的“模拟人类外貌”。因此,从产业实践角度看,当前新规仍存在若干值得探讨之处。
主持人:接下来想请教张翀法官从司法适用的角度看,法院在个案中并不需要先行判断某一对象是否属于“数字虚拟人”,而更关注其背后所承载的法律属性。面对一个具备外貌、声音乃至交互能力的对象,我们应如何锚定其最核心的法律属性。是将其视为一种新型数字资产,还是还原为多种人格利益与著作权的复合体。在界定此类复杂对象的权利归属时,您认为最核心的难点究竟在哪里?
张翀(杭州互联网法院审判员、一级法官):个人认为从法律属性来看,数字虚拟人并非自然人,在现行法律框架下不具备民事主体资格。其本身运行的既定算法、规则以及所获得的运算能力和学习能力,均为开发设计者干预与选择的结果。因此,数字虚拟人更适合作为法律关系中的客体而非主体,本身不享有法律权利。从商业与法律结合的角度看,数字虚拟人具有商业价值,其权利归属可通过法定或约定方式予以确定,其中知识产权构成数字人资产的核心权益。在此意义上,数字人可被理解为经商业变现后的新型数字资产。但由于其不具备权利主体地位,仅能作为权利的承载对象而不具有独立人格。当数字人基于真人建模时,其所承载的真人肖像权可视为该权利的数字化延伸。在此类权利聚合状态下,其著作权通常归属于创作主体或数字人的经营者,而数字人本身则成为可视化的载体。
关于权利归属认定的核心难点,我认为关键在于:数字人从创建到使用的全过程中涉及多方主体,包括数字人本体、真人驱动型中的“中之人”(即真人演员)、数字人经营者及使用者等。先要明确各环节中相关主体的身份,进而界定其权利边界,厘清技术产物与法律主体之间的界限。这一过程需紧密结合技术逻辑,同时兼顾权利法定原则。因此,最核心的难点在于如何穿透数字人的虚拟外壳,识别其背后的真实权利主体。我的所有发言仅代表个人意见,如有不周延或不准确之处敬请谅解。
主持人:接下来的问题与张法官刚才的发言形成上下衔接,想请三位嘉宾共同回应一个极限场景。我们在第二十五条中提到“外貌、声音、行为交互能力或者性格等”,这是一个开放式的列举。那么,如果当前仅有一个会说话的卡通狗或是一个没有形象但具备极高情商、会撒娇的语音客服,它们是否属于数字人?在技术快速发展的今天,未来真正能够触发法律认定的核心锚点究竟应当是什么?
张翀:根据第二十五条的规定,我对相关定义进行了研读。其中对数字虚拟人的界定落脚于“模拟人类的外貌”,强调其为一种虚拟的数字形象。在刚才设定的极限场景中,会说话的卡通狗显然在外貌上与人类不相通、不相称。除非该形象极度拟人化、具备明确的人类特征,不然难以被纳入数字虚拟人的范畴。而无形象的高情商语音客服,因其缺乏外观形象同样不符合核心特征。因此,这两类情形均缺少数字虚拟人的关键要素。至于未来触发法律认定的核心锚点,我认为可能在于:该对象是否构成对人类的数字映射,是否具备拟人化形象并在此基础上建立拟人化的社会关系,这或许是判断的重要方向。
冯帆:由于我们是在国家网信办新规的框架下讨论此问题,应回归该规定对数字虚拟人的定义。其中明确提到“模拟人类外貌”,而“模拟人类”这一要素是核心。从表述本身看,“数字虚拟人”最终指向的是“人”,因此模拟人类特征本质上是一项必要条件。据此,前述的卡通狗在我看来不应被认定为数字人。
翁冬冬:核心确实在于人类特征,但这里存在一个需要进一步考虑的问题:例如刚才提到的卡通狗,虽然在外貌上不具备人类特征,却可能拥有声音及其他行为表现。尽管“行为”的界定目前较为困难,但声音往往容易让人联想到特定个体。如果该声音具有极高的辨识度且与某位真人存在直接关联,则仍可能涉及相关法律问题。即便其外形是狗,实质上却复制了人类的某些特征,因而仍可能存在侵权风险。
主持人:也就是说,尽管其形象是狗但声音足以让人联想到某个具体真人,相当于借助了卡通动物的外壳却成功唤起了对特定人物的联想。
翁冬冬:特定的人,关键在于是否具备足够的辨识度,使人能够直接联想到特定个体,无论是外观还是语音这些都可能涉及该个体的身份信息。


主持人:当前最大的难点并非背诵法条定义,而是在千奇百怪的产品形态中精准锁定规制对象。既然对象如此复杂,同一套规则是否足以有效覆盖所有场景。接下来我们将进入板块二:不同类型的数字虚拟人是否需要差异化规制。本部分仍对应《数字虚拟人信息服务管理办法(征求意见稿)》第11条、第13条和第17条。
数字人并非统一对象,而是多种技术路径与商业模式的集合。从产业角度可大致划分为三类:第一类是直播,如常见的电商直播、虚拟直播;第二类是短视频,许多新闻播报、政务服务均以短视频形式分发;第三类是对话,即强调实时交互与陪伴的拟人化AI产品。在此基础上审视规章本身:第11条通过一系列禁止性条款约束内容与行为;第13条要求对数字人进行持续标识,解决身份识别问题;第17条则将责任落实至平台。其背后的规制思路在于:既要防止用户误认其身份,也要限制其行为边界,并明确责任主体。
接下来我们将围绕三个核心问题展开讨论。第一问主要聚焦:类型不同,规制重点是否也应不同。我们请教北京理工大学光电学院的翁冬冬教授,从技术与应用角度整体回应。在视频展示的电商带货、情感互动和新闻播报三类场景中,数字人影响用户的方式截然不同。从技术与产业应用角度看,这三类数字人的核心能力分别是什么?它们影响甚至误导用户的方式,是否本质上存在差异。
翁冬冬:以电商带货为例,该场景中的数字人实质上替代了真实主播。在节假日团队休息期间,数字人可实现24小时连续直播。在此类场景中,主播与用户之间建立的信任关系具有极高社会价值,这种价值会直接转化为其所推荐产品的商业价值。
因此,数字人在此实际上是延续真人主播的社会影响力,其影响用户的方式即复现该主播的社会价值。此时的核心问题在于:该数字人是否获得本人授权。此外还需注意,电商主播形象往往并非完全由个人塑造,而是由运营团队构建的人设,因此不仅涉及主播本人的肖像权,还牵涉团队对其商业人格的整体权益。上述情况属于一种模式。第二种是数字陪伴,尤其是提供情感陪伴的数字人。
在此类场景中,用户的价值感知并非来自数字人的社会身份,而是源于其语言风格、互动方式、语音情感,以及表情、姿态等带来的画面与声音体验。这些元素共同营造情绪价值,并逐步与用户建立长期关系。一旦信任关系形成,数字人便可能借此植入信息——可能是正向的,如帮助用户走出困境或辅助学习。但也可能植入负面内容,这与产品设计密切相关。
因此,在规范层面,两类数字人所需关注的重点明显不同:直播类数字人更需审查是否获得清晰授权以使用真实身份;而陪伴类数字人虽与真实身份关联较弱,但其隐含信息是否正向、是否符合互联网传播规范,则成为监管关键。两者存在明确区别,其他形式的数字人亦各有不同的影响机制。
主持人:接下来第二问重点探讨企业是否已按类型进行风险分层。从产业实践角度看,直播、短视频、对话这三类典型业务是否已被划分为不同风险等级、是否存在不同的合规关注倾向。
冯帆:风险分级问题对企业而言至关重要,也是日常合规治理中的核心议题。虽然我们列举了三种场景,但在实际风险评估中,企业通常不会仅依据场景维度划分,而更关注数字人所提供的具体服务内容。以直播领域为例,可进一步细分:若数字人仅提供纯娱乐性质的服务,如在直播间唱歌、跳舞、互动交流,则其风险相对较低。而用于直播带货的数字人则面临更高风险,因其可能涉及误导或诱导消费、夸大宣传等问题。尤其在AI驱动的实时互动场景中,输出内容是否可控、合法合规,成为关键风险点。

因此,我们会聚焦于具体功能项进行评估。再以对话型数字人为例,若其提供情感陪伴服务——例如作为用户的虚拟伴侣,则需特别关注是否与用户建立深度情感连接。此类服务可能落入网信办近期发布的《人工智能拟人化互动服务管理暂行办法》的监管范围,该办法重点规制具备持续性情感陪伴功能的数字人。在此情形下,风险等级更高需采取相应合规措施。反之,若对话型数字人仅提供工具性服务,如客服咨询,用户提问数字人解答,不涉及情感链接,则风险相对较低。
综上,企业在评估风险时,更关注数字人所提供服务的性质:若服务易导致用户混淆、误认,或促成持续性情感陪伴则视为相对高风险,需履行更高注意义务,并采取更完备的合规措施。这是企业视角下的基本判断逻辑。
主持人:第三问聚焦司法实践。法院是否会区分类型与场景。请张翀法官从司法角度回应:在衡量一家人工智能企业是否尽职时,其注意义务的标准是否会随应用场景动态调整。
张翀:我非常赞同关于不同平台类型对应不同风险等级与防控措施的观点。人工智能企业的注意义务标准不应“一刀切”,而应根据应用场景动态调整,风险越高,责任越重。在具体判断某一场景下的风险等级时,需要先来界定人工智能服务提供者的法律地位。一般而言,可基于“内容—服务”二元框架,结合具体应用场景及行为特征,在个案中作出判断。对于AI企业,不宜僵化定性为其始终属于内容提供者或技术服务提供者,而应根据其平台角色动态认定。
此外,还需从应用场景中抽离出来看待企业应履行的底线义务,主要包括以下维度:一是数据合规,包括数据来源合法性及对敏感信息的特别保护。二是内容安全,如算法是否可靠、是否存在“黑箱”等问题。三是显著标识义务,即确保用户知悉其交互对象为数字人而非真人,保障用户知情权。四是应急干预能力,即出现问题时是否有责任人及时处置。
在此基础上,再结合具体场景评估风险与责任。例如,在电商带货场景中,核心问题是信息不对称,无论由数字人或真人主播带货,均可能存在消费欺诈或扰乱市场秩序的风险。在新闻播报类短视频场景中,重点在于防范虚假信息扩散,企业需承担内容真实性审核责任。而在情感陪伴场景中,则更需关注是否获得人格权授权、是否具备主动风险识别与干预机制,以及是否涉及用户隐私保护。
总体而言,电商与新闻类场景主要强调显著标识与虚假信息防范,而情感陪伴类场景则可能涉及人身安全乃至伦理干预,注意义务标准显然更高。尽管实践中可划定大致红线,但司法裁判并无统一公式,仍需在个案中综合考量技术可行性、企业控制能力及其法律属性,作出综合判断。
主持人:正如张法官所言,“一刀切”并非解决问题的正确方式,我们需要在动态中敏捷判定。完成上述三个层面的分享后,我们回到一个更基础的问题:面对高度分化的应用场景,当前的统一规制是否仅为过渡,未来是否必然走向分场景、分类型的差异化治理。
翁冬冬:我认为一定会走向分场景治理。此次出台的管理办法属于整体性框架,后续各行业必将出台更细化的管理规则。
冯帆:当前新规的核心目标是确立基调,国家已识别数字虚拟人存在的重点风险,有必要通过专门规范予以规制,从而引导行业和企业针对性开展治理。但具体风险场景:如消费者权益保护、隐私保护、人格权等问题仍需回归各专门法域及具体业务场景解决,单一规范无法统一解决所有问题。
张翀:具体问题必须回到具体场景中解决。统一规制的意义在于解决“从无到有”的问题,在通用规则基础上,未来基于风险等级实施差异化治理。而如何有效实施,将涉及方法论层面的深入探讨。
主持人:是的,我们需在动态中寻求平衡:既要让技术充分发展,也要时刻警惕是否越界。接下来我们将进入板块三。在板块二中,三位老师已清晰梳理数字人在台前的千姿百态,无论是直播带货、短视频分发还是互动对话,我们都达成共识:不同应用场景下,企业的合规重心与司法的注意义务存在显著差异。简言之,板块二解决的是数字人落地应用后“如何管”的问题。但在讨论“如何管”之前,我们必须回溯一步,直面一个更源头、也更根本的底层问题:数字人究竟是如何产生的,又该如何存续。
当一个真人的生物特征被采集建模,转化为可商业化运营的数字分身时,这层数字人格究竟归谁所有。如果真人随时喊停,企业积累的千万级资产是否必须瞬间清零。这是一个非常现实的问题,也引出了我们今天讨论的深水区。接下来,我们将进入板块三:生成机制——从数据建模到人格边界。


主持人:一则最新行业动态:4月20日,某视频平台官宣首批入驻AI艺人库的名单,100多位艺人的数字分身正式入库,可用于影视创作。但值得注意的是,部分艺人表示从未签署相关授权。严格来说,此类影视剧中的数字化表演更多属于肖像用于AI创作的范畴,尚不属于具备实时交互能力的数字虚拟人产品。
然而,这一案例折射出的核心逻辑是一致的:当一个人的生物特征被数字化、模型化后,这种数字人格究竟应由谁掌控。回到《数字虚拟人信息服务管理办法(征求意见稿)》第七条、第八条、第十四条,可见法律态度十分明确:严格限制数字人与真人的高度相似性,并规定一旦真人撤回同意,相关数字人即面临注销命运。法律释放的信号清晰而坚决:对脱离本人控制的永久性数字分身保持高度警惕。请翁冬冬教授从技术角度切入:当前依托数据一比一复刻艺人形象的技术,是否已能达到以假乱真、甚至令本人都产生威胁感的程度?当我们发现此类项目遭遇阻力时,究竟是技术尚未成熟,还是行业已触碰法律严禁的人格随意复制红线。
翁冬冬:从技术角度看,目前复刻一个人的外观已基本成熟,以艺人数字分身为例,我们早前曾提出“身份银行”的概念。在实践中,我们会通过多视角拍摄,在专用设备上记录艺人在不同光照条件下的多种表情与微表情。由于人类可表达的表情数量有限,仅需数小时即可采集一套完整数据,这套数据包含丰富的喜怒哀乐与细微神态,既可直接用于数字重建,也可用于训练生成模型,实现高度还原。
最初提出该设想,是出于确权保护目的。例如,一位演员在40岁时质疑某作品使用了其20岁的面部形象,但因缺乏当年高质量影像资料,难以有效举证。若艺人能定期进行形象数据备份并完成确权,将有助于未来应对法律纠纷。而随着大模型技术的发展,即便未进行系统性数据采集,仅凭网络公开的照片及影视作品素材,也足以实现高度逼真的数字复刻。目前,这在技术上已非难事。
主持人:技术的无限逼近,正面临法律划定的红线。接下来将问题抛给冯帆总,第七条规定自然人可随时撤回同意,系统须删除数据甚至注销数字人。但在现实中,若一个数字人已运营三年,收取代言费数千万元,拥有数百万粉丝,成为商业链条核心,此时权利人要求注销企业是否应无条件执行?还是说,这一规则在未来可能被重新解释甚至调整。

冯帆:这是一个非常现实的问题。我认为,第七条主要针对的是面向普通用户、允许其上传照片生成个人数字分身的功能型产品。在此类场景中,因涉及人脸等敏感个人信息的收集与建模,用户依据《个人信息保护法》行使撤回、删除或注销权利,理应得到支持。但在商业实践中,更常见的情形是企业与明星、网红或素人签订合作协议,授权使用其肖像制作数字人用于业务运营。
此类安排本质上属于商业合作,双方通常会对授权期限、权利归属等作出明确约定。在此情况下,应优先适用“当事人另有约定”的原则。当前征求意见稿将“另有约定”仅限于注销环节,可能存在局限。在后者商业场景中,企业投入大量人力、物力与资金,支付高额授权费用,而个人亦从中获益。此时,应尊重基本的商业安排与契约精神。
此外,关于艺人反对其肖像用于AI创作的现象,我认为背后有两重考量:其一,存在职业替代风险。随着数字人技术成熟,传统依赖真人出镜的影视、短剧等内容生产可能减少对真人的需求,影响艺人职业发展空间。其二,粉丝经济依赖情感联结。若以数字人替代真人与粉丝互动,可能削弱粉丝对艺人的信任与情感依赖,被视为对粉丝的不尊重。因此,这一问题实为法律、商业与社会心理交织的复杂议题。
主持人:确实如此,明星担忧的不仅是授权,更是身份被持续替代的风险。冯总的坦诚回应凸显了商业资产与人格权之间的张力,这也引出了一个深层司法难题。传统肖像权仅保护“脸”,名誉权仅保护“名”,但如今的数字人不仅形似,还具备特定表达习惯、人设乃至脾气。当数字人呈现出复合型人格感时,传统肖像权是否仍然足够?法院是否已在事实上承认一种尚未被明确命名的新型人格权益。
张翀:从法律角度看,传统肖像权保护的是自然人外部形象的识别利益。而当前数字人不仅复刻外貌,还整合了内在特征,可能形成新的识别维度,传统肖像权确实难以完全涵盖。尽管现行立法尚未创设新型人格权益,司法实践亦不能主动创设,但我们可借助现有法律工具对这类复合权益予以保护。
例如,北京互联网法院曾审理一起“AI陪伴”案,该案后入选人民法院案例库。法院认为,被告未经许可,通过涉案软件,将原告的姓名、肖像、性格特征、人格特点等综合而成的整体形象投射至AI角色上,并允许用户与该角色设置虚拟身份关系,构成对自然人人格权的侵害。提供算法规则的网络服务提供者需承担侵权责任。该案的法律依据是《民法典》第990条,即自然人享有基于人身自由、人格尊严产生的其他人格权益。
法院指出,涉案软件使得AI角色与真实自然人高度关联,容易让用户产生一种与何某真实互动的情感体验,所涉原告的人格尊严无法被肖像权、姓名权涵盖,因此,未被涵盖的人格利益属于一般人格利益。由此可知,面对技术挑战,法律保持稳定,但可通过个案裁判的弹性空间,回应人工智能时代的现实需求。
主持人:翁教授谈到了技术的无限逼近,冯总阐述了商业的现实诉求,张法官则坚守了司法对人格尊严的底线。本板块最后一个问题:我们当前是在解决传统侵权问题,还是已踏入需重新界定人格边界的无人区?
张翀:我认为我们正处在用旧钥匙开新锁的过渡地带,既非单纯的传统侵权,也非完全无法可依的无人区,而是需要摸着石头过河。
冯帆:我认同张法官的比喻。既然现有法律工具尚能应对,未必急于通过新立法重新界定人格权边界。当前《个人信息保护法》《民法典》及其侵权责任编已具备足够解释力。只有当技术发展到数字人具备高度识别性的交互方式、特定脾气或表达风格时,才需考虑是否启动专门立法。现阶段,相信司法智慧足以妥善处理。
翁冬冬:我赞同两位的观点。目前通过肖像权、著作权或知识产权等既有框架,仍可对多数问题提供参照。尽管新技术带来诸多新挑战,但在技术快速演进、产品形态尚未定型之际,仓促制定新规未必妥当。宜以现有规则先行约束。但不得不考虑的是,当前对相貌的高度还原尚可管控,声音相似度的规制已显困难,因其与传统著作权关联较弱。至于行为模式、情绪表达,乃至让用户产生“活人感”的虚拟存在,是否应赋予人格属性,恐怕需在未来两到三年内严肃讨论。人类本就感性,可以视宠物为家人,一个能陪伴聊天、看似有智慧的数字体,很快可能引发社会对其人格地位的诉求。
主持人:通过刚才的分享,我们处在一个“旧瓶装新酒、旧锁开新锁”的转型期。进一步延伸,这或许已不仅是法律问题,更是一个哲学命题:什么才是“你”?是那张脸、那段声音,还是一串代码?这或许正是我们需要小心翼翼探索的无人区。再次感谢三位嘉宾。


主持人:接下来我们将进入板块四,复盘全国数字人第一案。本部分将围绕杭州互联网法院审理的全国首例数字虚拟人侵权案件展开,聚焦从知识产权到竞争秩序的法律适用。ADA案案情较为清晰:原告制作的数字人被被告用于营销引流。
最终,杭州互联网法院不仅认定构成著作权侵权,还同时判定构成不正当竞争。这一判决向业界释放了明确信号:一旦数字人涉入商业交易,相关规则需更加审慎。我们的第一问是:为何本案最终同时适用竞争法,而不仅限于著作权法。请张翀法官从裁判逻辑出发,在这起案件中既然著作权侵权已可成立,法院为何还要进一步适用反不正当竞争法?这是否说明,一旦数字人进入直播间开展带货引流,法律关注的重点便从“保护作品不被抄袭”转向“保护消费者不被欺骗、市场不被误导”?

张翀:需要澄清一点,本案属于民事侵权纠纷,并非刑事“定罪”。法院之所以同时适用反不正当竞争法,立足点在于司法“不告不理”原则。原告在诉讼中明确提出了包括著作权、邻接权及竞争权益在内的多项请求权基础,法院需据此全面审查。著作权法与反不正当竞争法的立法目标本就不同:前者旨在激励创新,后者重在维护市场竞争秩序。
本案中,尽管原始视频可受著作权法保护,但被告在侵权视频中进行了删减并替换了部分信息,还在相关话题中标注了其他虚拟数字人名称。此类行为可能影响消费者的理性决策,从而让被告获取更多商业机会,扰乱市场竞争秩序,直接损害原告的商业利益。从行为手段到损害后果,已超出著作权法的评价范畴,构成虚假宣传,应纳入反不正当竞争法规制。
这一裁判结果可以有效遏制商业化快速发展背景下仍存在的低质引流、虚假宣传乱象。进一步而言,当数字人进入直播带货场景,其性质已从静态内容展示转变为动态商业交互。此时,法律视角不应仅停留在保护智力成果层面,而应更多转向对商业营销工具本身侵权风险的防控。
数字人已成为经营者开展活动的一种方式,因此需拓展视野,综合运用《消费者权益保护法》《广告法》《反不正当竞争法》乃至《直播电商监督管理办法》等多维度进行考量。换言之,在此类场景下,我们不再仅关注数字人形象或其中著作权内容是否被保护,更需审视其作为商业展示主体(尽管不具备独立权利)在经营活动中是否存在行为边界,以及该边界是否需要法律界定。
主持人:既然是案例复盘,第二问仍请教张法官:未来的竞争是否正从“复制作品”转向“复制风格”?本案中被告直接使用了既有内容,属典型复制。但行业更担忧的是“洗稿式”抄袭,即不搬运代码或素材,而是通过AI生成一个在视觉形象、声音特质乃至动态习惯上均与头部IP高度接近的数字人。鉴于数字人是包含代码、素材与驱动结果的复合作品,在认定此类“实质性相似”时,最核心的审查点应落在何处?
张翀:这需回归著作权法的基本原则,保护表达而非思想。所谓“复制风格”,首先要判断该“风格”是否属于具体表达的范畴。只有当风格通过独特的线条、色彩、构图或文字组合等形式被固定下来,并达到实质性相似甚至相同程度时,才可能构成侵权。反之,若风格趋同但未体现于具体表达层面,则难以通过著作权法获得保护。尤其是一些抽象元素,往往属于创作的基本素材,属于公有领域,不应赋予垄断性权利,否则将阻碍艺术传承与创新发展。
关于实质性相似的审查,需首先明确作品类型,因不同类型作品的独创性认定标准各异。司法实践中,审查方法、方向与标准均依赖于具体比对对象。例如,文字作品侧重情节结构、人物关系及具体表达的整体比对。美术作品则关注整体视觉效果、构图与色彩运用。通用审查思路是:判断在后内容与在先作品之间是否构成实质性相似,应先过滤公有领域内容、必要场景、有限表达及创作巧合等可能导致作品表达在形式上趋同的因素,再结合作品类型进行具体比对。同时,还需考量整体欣赏体验是否产生高度相似观感。这是在著作权法框架下判断实质性相似的合理切入点。
主持人:正如张法官所强调,法律保护的是具有独创性的表达而非抽象风格。接下来进入第三问:数字人是否会成为新型商业标识?请教冯帆总,鉴于数字人易被克隆,相关保护措施是否应在范围上有所拓宽?当一个数字人具备极高知名度、固定人设,并与平台商业利益深度绑定时,它是否已超越“作品”范畴,触及品牌形象保护?
冯帆:这是一个关键问题。企业投入大量人力、物力与财力开发数字虚拟人,并赋予其代表企业或提供特定服务的功能,其商业价值极高,企业自然希望获得充分保护。现实中,部分数字人已催生粉丝经济,进一步印证其品牌价值。从规范市场竞争秩序与保护创新角度,亦应予以保护。当前保护路径多样,除著作权与反不正当竞争法外,未来或可考虑将数字人申请为商标。但这一设想尚属远期探讨,因数字人形态复杂,通常包含肖像、图形、声音、文字(如名称)等多重元素。目前商标申请仍需针对单一元素拆分处理,整体形象能否注册为商标在法律上仍有待深入讨论,短期内尚无明确答案。
主持人:从技术角度看,将数字人作为稳定商业标识是否可行?是否需限定于特定场景?
翁冬冬:近日某公司已预告推出代表自身形象的数字人。这表明,数字人作为品牌形象的应用已实际发生。但在技术实现与产业应用中仍面临诸多挑战。我想借此请教张法官:在首例案件中,被告直接使用原告视频,构成著作权侵权。但现实中,我们曾尝试为数字人形象申请知识产权,却发现国内现有体系无法对“人物长相”本身进行确权,没有任何现行制度可覆盖。试想,若第三方未直接使用原视频,而是基于该数字人的长相与身材,更换服装与发型,生成全新视频,是否构成侵权?
张翀:翁教授的问题很有意义。本案中,法院不仅审查了视频整体也分析了其中内容。若仅为动捕训练录像,则可能属于录像制品。虚拟数字人的形象本身若具备独创性,可纳入美术作品保护范畴。当前司法实践中,权利人常通过作品登记证书或区块链存证等方式佐证创作时间与过程,但这些不替代作品构成与否的实质性审查。核心仍在于:该形象是否构成受保护的具体表达。
在商业化背景下,数字人通常有标准形象,后续使用虽经定制(如语料投喂、动作调整、服装更换),但基础形象不变。即便未进行作品登记或上链存证,只要企业对创建、使用、发布等关键环节保留完整证据链,未来遭遇侵权时仍可有效维权。此外,委托方与受托方可通过合同明确约定权利归属,防止他人擅自使用。因此,即便第三方仅更换服饰,也不意味着原形象失去保护,维权渠道依然存在。
翁冬冬:这确实是实践中常见的正向问题。但我们还遇到过“反向”情形。两家公司并无互相侵权行为,却因当前网络审美高度趋同:均按主流网红标准建模,导致各自独立创作的数字人面部极为相似。双方曾激烈争执“谁抄谁”,但实为各自独立完成。这凸显一个核心困境:现行规范将自然人视为权利主体,其肖像权可与任何作品比对。但数字人尚无人格权,其长相、气质等延伸审美要素无法独立确权。目前只能通过图片或视频形式整体保护,缺乏分离式权利,这一空白未来可能引发更多争议。正如先前所言,“用旧钥匙开新锁”本就是摸索过程,随着司法实践积累,规则将逐步明晰。
主持人:通过刚才的案例可见一条清晰的演进路径:数字虚拟人最初作为作品受到保护,随后在商业使用中被纳入竞争秩序评价。随着持续运营与品牌化发展,它可能进一步演变为具有稳定识别性的市场要素。这意味着,围绕数字虚拟人的法律问题,已不仅是知识产权问题,更是一个不断拓展的竞争法议题。那么当数字人出现问题时,责任应由谁承担?接下来进入本期山海夜话的第五个板块:法律责任:当数字人出现问题时,到底谁来承担责任?


主持人:本部分对应《数字虚拟人信息服务管理办法(征求意见稿)》第11条、第12条、第15条、第21条和第24条。其中,第11条与第12条规定内容与行为边界;第15条要求建立风险监测与应急处置机制;第21条与第24条则通过备案与处罚,将责任落实至具体主体。整体来看,规章形成了明确结构:数字虚拟人本身不承担责任,但所有风险必须被识别、被控制,并最终由平台、开发者或使用者承担。
首先请教冯总:平台是否为商家的数字人背书?需指出,“平台”在数字人产业链中包含多元身份,既有提供分发场地的内容与电商平台,也有提供生成工具的技术开发平台。请问冯总,从您的角度看,这两类平台对数字虚拟人的管控边界是否存在差异?例如,当商家利用技术工具生成违规数字人并在电商平台上直播时,提供工具的技术平台与提供场地的内容平台,各自的责任重心应如何划分?
冯帆:讨论“平台”时,首先需明确其具体类型。“平台”可能涉及两类角色:内容平台与技术开发平台。技术开发平台通常面向B端或C端用户提供数字人开发工具或素材,允许用户自主创建并使用数字人。在此模式下,平台本质上属于技术中立服务提供者。若平台自身提供侵权或存在明显安全风险的素材(如未经授权的肖像),则可能需承担责任。
但若仅提供通用技术服务,则最终使用责任应由开发者或终端用户承担。内容平台则更为复杂,因其负有平台治理义务。对于平台上发布的数字人直播间、短视频等内容,平台需进行日常干预与管控,防止出现违法违规言论。这包括建立侵权投诉渠道、举报处理机制、开展内容巡查并配备专业人员。

此类义务并非因对象是数字人而改变,而是平台内容安全治理的基本要求。同时需注意,内容平台的责任边界亦有限度。参考传统著作权领域的“避风港原则”,不应苛求平台对所有数字人内容进行实质性侵权判断。平台责任应聚焦于是否“明知或应知”侵权行为,或是否提供帮助行为。因此,界定平台责任的关键在于两点:一是明确平台类型,二是厘清其具体义务边界。
主持人:接下来将场景具体化,假设在直播带货中,某品牌方使用的数字人突然发表抹黑竞品或虚假宣传的违规言论。请问张法官,从司法角度看,如何区分数字虚拟人服务提供者与网络信息服务平台的责任边界?
张翀:需先设定前提,该数字人属于真人驱动型还是AI驱动型?若为真人驱动型,不当言论来源较易查明。若“中之人”与直播主体存在劳务或劳动关系,其行为一般可被推定为职务行为。无论何种情形,遵循“谁使用、谁受益、谁负责”原则,直播间运营者(即商家)的责任难以回避,此时无需优先考虑平台或服务提供者责任。
若为AI驱动型,则需审查定制过程:委托方与开发方是否签订合同?合同中是否约定语料提供、收集及责任分配,通常此类条款会明确责任归属。此外,还需判断服务提供者与平台对内容生成是否具备控制力,以及是否履行了法定注意义务。
在电商直播场景下,内容平台通常以监管与处置责任为主。除非平台明知或应知违规言论而未处理,否则一般不承担直接责任,技术开发企业则更多承担产品安全与合规责任。若违规话术源于商家自行投喂的指令,或因直播互动引起,就很难界定技术开发企业要承担责任。
但若技术开发企业在产品设计中存在严重技术瑕疵或故障(非指不可避免的技术局限),导致AI自动生成违规内容,则可能需承担产品质量责任。因此,此类情形需结合具体场景细致分析,无法一概而论。
冯帆:顺着张法官的观点,我补充一些实操经验。现实中确有数字人通过直播或短视频抹黑竞争对手的情况。企业维权时,通常采取快捷路径:首先向直播主体发函,要求纠正或下架相关内容;同时向平台发函,要求处理。主流内容平台因具备成熟投诉机制,响应较快。若对方消极应对,则可能进入诉讼程序,但时效性会受影响。因此,企业更倾向尽早处置,平台在此过程中角色至关重要。当前内容平台的投诉处理机制已较为成熟,建议相关方积极利用。
主持人:接下来进入第二问:如何证明已尽责?第15条要求平台建立风险监测与预警机制,但未明确标准。企业如何证明自己已履行合理注意义务?仍请教冯总:从产业实践看,不同角色的注意义务是否有不同证明标准?例如,服务提供者是否需证明在算法端已完成身份核验与预警阻断?内容平台是否主要通过建立投诉举报机制、强化内容识别与标识义务来证明尽责?目前行业有哪些做法?
冯帆:第15条的适用主体是“数字虚拟人服务提供者”与“服务使用者”,未直接涵盖内容平台——除非平台自身也提供数字人服务。从服务提供者角度看,注意义务主要体现在“发现”与“处置”两方面。典型风险场景包括:用户故意诱导数字人输出不当内容,或数字人因失控产生越界行为。
对此,服务提供者需具备风险监测、预警与应急处置能力并配备相应人员。这些已是主流人工智能企业的基本能力。至于身份核验、警示或限制等措施,企业会根据违规严重程度采取相应处置,核心目标是防止风险再次发生与扩散。对内容平台而言,虽第15条未直接适用,但其责任仍可参照“避风港原则”:重点在于是否“明知或应知”侵权,以及接到投诉后是否及时处理。此外,新规特别强调内容平台的“标识义务”——即对AI生成内容进行显著提示,这与网信办此前发布的AI内容标识规范一脉相承,构成平台特有的合规义务。
主持人:请教张法官:在司法实践中,企业仅事后处理即可,还是必须具备事前识别与实时干预能力?
张翀:我对“通知—删除”模式在高风险AI系统中的适用持保留意见。若将内容平台视为高风险AI服务提供者,某些情形下可能适用无过错责任,而非避风港原则。在AI侵权场景中,民法上的责任规则,包括过错责任、过错推定责任乃至无过错责任均有理论支撑。
例如,在个人信息保护或内容管控等特殊场景,可倒置举证责任,由具备技术优势的平台自证清白,以有效救济处于弱势地位的个体权益。就注意义务而言,其标准需在个案中动态调整,考量因素包括技术水平、平台防控能力、作品知名度等。我们既不能纵容侵权,也不应过度苛责平台。
具体到数字人服务提供者,其监管义务应覆盖事前审核、事中监测与事后处置全流程,而非仅限于事后处理。《直播电商监督管理办法》及行业合规要求均表明,人工智能企业应具备事前识别与实时干预能力。因此,无论技术开发方、直播间运营方或平台,均应建立全流程风控体系:技术不能掉链子,流程应透明可溯,出事后能明确追责。这才是商业活动中判断企业是否尽到合理注意义务的关键。
翁冬冬:我稍作补充,刚才讨论平台义务时,我尝试了OpenAI新发布的图像生成模型GPT Image 2。输入“生成某国内一线女星照片”,模型迅速生成一张高度逼真、难以辨伪的图像,且未触发任何检测机制,至少对中国明星无防护。这引出一个悖论:若按“人人平等”原则,所有存世人物的脸都不应被生成(因无授权),但技术上无法实现“避开全世界所有人脸”。若强行一刀切,AIGC服务将无法存在。
现实情况是,此类模型必须生成人脸才有价值。一旦能生成,就必然被使用,而当前技术难以完全避免滥用。例如,春节期间大量“周星驰”“奥特曼”视频由AI生成,后因投诉下架并禁用人脸生成。但若仅屏蔽知名IP(如迪士尼),其余千千万万普通人仍无保护。因此,短期内这一领域仍将存在灰色地带。平台监管可能只能依赖“举报—处理”模式,或在引发社会影响后介入,彻底杜绝尚不可行。

冯帆:我认同翁教授的观点,AIGC的侵权问题本身极为复杂。现实中,权利人态度矛盾:部分积极维权,担忧AI生成内容广泛传播对IP本身造成实质性替代;另一些则乐见其成,若用户仅用于个人欣赏、学习或娱乐,反而有助于扩大IP知名度与喜爱度。因此本质上还是要看对于AI生成内容的使用方式是否恰当。
站在企业角度,若苛求其过滤所有版权内容,甚至屏蔽所有人脸生成,将严重阻碍产业发展。现实中存在大量正当需求:用户希望生成个人写真或形象照,明星需AI辅助制作海报等。若强制拦截,不仅义务过重,也不利于行业生态。
主持人:接下来进入第五板块第三问:大模型风险不可控是否影响责任认定?当前越来越多数字人由大模型驱动,互动中可能出现不可预测的输出,包括错误信息、不当表达,甚至被攻击后生成违法内容。请冯总从产业角度谈谈:这种不确定性是否已影响产品设计,例如主动降低能力或限制功能?
冯帆:此问题本质是AI本身的问题,而非数字人特有。实践中,部分数字人采用真人动捕或预设脚本,并非AI驱动。但AI驱动型数字人确实面临“幻觉”风险,输出错误或不准确内容。坦率而言,在当前技术条件下,大模型幻觉难以完全避免。国内外已有相关诉讼,杭州亦有判例认可其客观存在。但这不意味着企业可无所作为。
相反,各AI企业正积极应对:采用检索增强生成(RAG)、提示词工程、知识图谱等技术,力求降低错误率。这既是合规要求,更是保持产品竞争力所需,如用户体验不佳将导致用户流失。此外,针对提示词攻击等外部诱导行为,企业普遍设置“提示词围栏”、内容过滤机制,并开展红蓝对抗测试,以降低不可控风险。
主持人:请张法官补充,在司法评价中,大模型驱动的数字人因技术局限产生不可预见的错误或违法内容,此类局限性能否成为免责或减责理由?
张翀:技术局限性不能当然成为免责理由。以全国首例AI幻觉案为例,法院虽认可技术缺陷的客观性,但仍审查服务提供者是否履行注意义务。关键在于:是否采取显著标识、是否采用检索增强生成等技术提升准确性、是否严格审查有害信息,需个别判断其是否在现有条件下尽到合理努力。
因此,技术局限性通常不能完全免责,但若已达到行业通行防护标准,可作为界定责任边界的依据。从一般过错责任原则来看,不再只是从结果导向出发,还应审查主观过错及注意义务履行情况。
此外,需区分“普通错误”与“违法内容”,后者审核义务更高。《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》均明确要求对违法内容进行有效拦截。此时,仅以“技术不可预见”为由主张免责或减责难以成立。
冯帆:我完全赞同张法官的观点。我此前侧重讨论AI幻觉,但若幻觉输出的是违法违规内容,则性质完全不同,企业首要任务是守住安全底线。对违法内容,必须从技术层面构建多重防线:提示词围栏、内容过滤、模型训练阶段的风险防范等。这是《生成式人工智能服务管理规范》的基本要求,也是企业必须履行的义务。当前,企业需兼顾两方面:一是防范违法违规内容,二是降低幻觉以提升用户体验。这已成为所有AI服务提供者的核心关切。
主持人:请三位专家结合主题作简要总结,当前多方共治、角色对等的制度安排,对处于狂飙期的数字人产业而言,是能有效对冲风险、护航行业行稳致远的“定海神针”,还是仍需在实践中探索如何降低合规成本、实现更灵活协同?

翁冬冬:当前技术发展速度极快,尤其在人工智能领域其演进已远超社会制度与认知的调整节奏,导致各方均处于一种普遍的混乱状态。此次出台的新规,正是试图理清这种混乱的初步尝试。因此这并非终点,而是一个开始。我们面对的挑战日新月异,技术不断迭代,问题持续涌现,对规则的梳理必然是一个长期、动态、持续的过程。
张翀:我认为,当前的制度安排看似通过管理办法设限,实则为数字人产业的有序发展奠定基础。如同铺设轨道,唯有规则清晰产业才能真正释放加速度。这既是规范,更是护航,让处于狂飙期的技术在法治轨道上稳健前行,是我对未来发展的期待。
冯帆:当前AI领域新规频出,监管层旨在通过明确安全合规底线,引导行业重视并治理风险,这一方向十分必要。企业唯有落实有效治理,产品方能保持健康发展。同时,也需充分发挥企业合规能动性,在坚守安全底线的前提下兼顾用户体验,推动风险治理与产品体验深度融合,为用户提供更优质的人工智能服务。

主持人:本期山海夜话干货满满,我们从技术原理谈到法律实务,从商业风口探讨伦理底线,也深刻体会到征求意见稿背后的良苦用心——它并非限制发展,而是为狂飙突进的技术系上安全带。我们亦清醒认识到:技术的温度,不应以牺牲法治的尺度为代价。数字世界广阔无垠,但法治边界清晰可辨。让我们共同期待一个更加安全、可信的数字未来。
📺直播预告

📌往期推荐








关注公众号发现更多干货❤️



内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢