点击蓝字

关注我们

引言




一个判例与一份报告释放的全球监管模式重构信号:


2026年3月25日,美国加州洛杉矶高等法院陪审团在K.G.M. v. Meta Platforms, Inc. et al. 案中作出历史性裁决,认定Meta(Instagram)和Google(YouTube)因故意设计成瘾性平台功能,对未成年人原告造成心理健康损害,须赔偿600万美元。本案确立了平台对其算法推荐系统负有更严格的责任,平台不再仅仅是一个“信息容器”,而是一个“持续影响用户注意力、情绪和决策的行为架构者”。另外,2025年8月19日,明尼苏达州总检察长代表州政府在地方法院对TikTok Inc.提起诉讼,指控该平台通过高度成瘾的算法和功能设计故意诱导青少年用户沉迷,严重损害未成年人心理健康,该案尚在审理中。相应诉讼也于2026年在欧洲陆续提起。


同在2026年3月,长期深耕儿童数字权利的国际权威组织——五权基金会(5Rights Foundation),发布了《以儿童为中心构建数字环境:国际最佳实践蓝图》(Building a Digital Environment Designed with Children in Mind: An International Best Practices Blueprint)(以下简称《蓝图》)。《蓝图》系统梳理了全球未成年人数字保护的政策实践,识别了共同的政策缺口,并提出了十项相互强化的监管原则。其核心指向非常明确:全球数智经济的监管逻辑正在从“事后响应、用户担责”转向“事前预防、平台负责”


五权基金会并非普通的民间组织。自2019年起,该组织深度参与了全球几乎所有与未成年人数字保护相关的重要政策制定。在联合国层面,从《第25号一般性意见:数字环境中儿童的权利》(2021)到《全球数字契约》,再到《联合国人工智能治理全球倡议》,均有其参与身影。在欧洲委员会层面,它深度介入了《人工智能框架公约》的制定;在经济合作与发展组织层面,参与了《数字环境中儿童的建议与指南》的起草。甚至电气与电子工程师协会(IEEE SA)发布的《适龄数字服务框架技术标准 IEEE 2089》,也是以五权基金会的研究为基础制定的。


我们熟悉的欧盟《人工智能法案》和《数字服务法案》(DSA)的讨论与制定过程,五权基金会亦深度参与。2025年7月,欧盟委员会根据DSA第28条授权通过的《有关未成年人在线隐私、安全与保障高水平措施指引》,多处援引五权基金会的研究成果。此外,该机构还参与了英国、爱尔兰、美国多个州、非洲联盟、印度尼西亚、肯尼亚、巴西等国家和地区的数字与人工智能立法。可以说,五权基金会是全球追踪并推动未成年人数字保护政策最权威的民间组织,对全球最新动态了如指掌。


Meta判例和《蓝图》传递了一个清晰信号:全球数智经济的监管逻辑正在经历根本性重构。中国作为数智经济发展的前沿国家,拥有独特的制度优势和实践积累,完全有能力捕捉这一历史性机遇,成为全球未成年人数字保护新监管模式的引领者。


作者|张文娟

北京市致诚律师事务所高级顾问
印度金德尔全球大学印中研究中心创始主任



一、当下数智经济监管模式下对未成年人保护存在哪些问题?



基于对欧盟、美国等监管框架的持续评估,《蓝图》识别出当前数字经济监管存在的六个系统性不足。


不足一:风险识别不足——平台低估或忽视对儿童的特殊风险


当前监管框架要求平台进行风险评估,但实际操作中,平台倾向于低估风险的严重性和紧迫性。具体而言,平台往往将“风险”狭义理解为非法内容(如色情、暴力),而忽视了“平台系统设计风险”——即平台界面和功能本身对儿童造成的伤害。无限滚动、自动播放、推送通知等设计特征被排除在风险评估之外,而这恰恰是“让年轻人粘在屏幕上”关键问题。同样,个性化推荐算法对儿童信息茧房、批判性思维削弱的系统性影响也常常被忽略。


AI驱动的推荐系统能够创造全新的风险类型,这些风险在传统的内容风险评估框架中没有对应项。例如,基于协同过滤的推荐可能将观看了一个关于自残视频的未成年人,推荐给其他有类似倾向的未成年人,形成“风险传染”。生成式AI可能产生“幻觉”——编造不存在的事实或给出危险的建议。更棘手的是,AI系统的风险往往是“涌现”的——即不是在设计时可以被预见的,而是在系统运行中突然出现的。这使得风险评估从“一次性工作”变成了“持续挑战”,而当前的监管框架尚未为此做好准备。


不足二:设计责任缺位——平台将责任转嫁给家庭


当前监管框架普遍存在“责任转嫁”现象。平台通过提供家长控制工具、青少年模式等功能,将保护责任推给家庭,回避自身在产品设计阶段就应承担的责任。


平台不应单纯依赖造成伤害后提供“补救工具”,而应侧重在设计阶段就消除伤害源。然而,当前多数平台的做法恰恰相反:它们提供一个“安全”模式,但默认设置仍然是“最大化参与度”模式;它们提供给家长控制功能,但将这些功能深埋在多层菜单之下;它们声称保护儿童隐私,但默认开启个性化广告和位置跟踪。


AI系统往往被包装为“中性工具”——“算法只是推荐用户可能感兴趣的内容”“AI只是回答问题”。这种技术中立的修辞成为回避设计责任的挡箭牌。当AI聊天机器人向未成年人提供有害建议时,平台常辩称“AI不是人类,无法理解语境”或“这是模型的不确定性问题”。AI的“拟人化”反而成了平台逃避责任的盾牌。


不足三:透明度不足——算法黑箱阻碍问责


算法是数字平台的核心治理工具,但其运作机制对监管者、研究者和公众而言几乎是完全黑箱。平台常以“商业秘密”为由拒绝公开算法参数,将这一主张作为规避透明度及可解释性义务的理由。


如果说传统算法是“黑箱”,那么深度学习模型就是“黑箱中的黑箱”。一个具有数十亿参数的神经网络,其决策过程即使对开发者也是部分不可解释的。这种“不可解释性”不是借口,而是当前AI技术的真实局限。这意味着,监管框架不能仅仅依赖“透明度”和“可解释性”,而必须发展新的工具——例如,对AI系统的“行为审计”(输入-输出对的测试)而非“代码审计”。


不足四:年龄验证失效——技术不可靠且侵犯隐私


有效的年龄验证是实施未成年人保护措施的前提。然而,当前年龄验证实践普遍存在两个问题:一是技术不可靠,依赖用户自我申报的年龄(用户可以谎报),或使用不准确的估算技术;二是侵犯隐私,一些年龄验证方法要求用户提交身份证件或生物特征信息,这对所有用户(尤其是儿童)构成隐私风险。


AI技术在这一领域扮演着双重角色。一方面,AI可以用于“年龄估算”,如果这种方法准确,可能解决自我申报的不可靠问题;但它涉及生物特征信息的处理,对儿童的隐私构成重大威胁。另一方面,AI可以被用于“年龄伪装”——未成年人可以使用AI生成的面孔或语音来欺骗年龄验证系统。这意味着年龄验证是一场技术军备竞赛,单靠技术解决方案难以根本解决。监管者必须在“有效性”和“隐私保护”之间找到平衡,而AI的介入使这一平衡更加难以把握。


不足五:救济机制缺失——儿童缺乏有效的投诉和补救渠道


当前多数平台的投诉机制是为成人设计的,对儿童不友好——流程复杂、语言晦涩、响应缓慢。


AI系统的“非确定性”特性使救济变得更加复杂。同样的问题可能得到不同的回答,这使得投诉需要记录和证明AI的错误,但AI的错误可能是瞬时的、不可复现的。更糟糕的是,AI系统的“学习”特性意味着,投诉之后系统可能已经变化,使得追责更加困难。此外,生成式AI创造了一种新的伤害类型——深度伪造伤害:AI生成的虚假内容(如伪造的欺凌信息、色情图片)可能被用于针对未成年人,而被攻击者很难证明这些内容是伪造的。现有的投诉机制完全无法处理这种新型伤害。


不足六:执法不力——缺乏威慑力的处罚


当前执法不力的表现包括:处罚金额相对于平台收入微不足道;执法程序冗长,平台可以通过诉讼拖延数年;缺乏高管个人责任,使得违规行为被归咎于“系统”而非“决策者”。


AI系统的快速迭代特性使执法面临“移动靶”问题。当监管机构完成对一个平台违规行为的调查时,该平台的AI系统可能已经更新了数十次,违规的设计模式可能已经以新的形式出现。这种“监管滞后”在AI时代被急剧放大。此外, “算法不知情”辩护在传统软件系统中不成立,但在具有学习能力的AI系统中,它获得了一定的表面合理性。有效的执法必须能够穿透“AI自主”的修辞,追究平台对AI系统行为的根本责任。


上述六个不足——风险识别不足、设计责任缺位、透明度不足、年龄验证失效、救济机制缺失、执法不力——揭示了当前数字经济监管的系统性缺陷。这些不足相互关联、相互强化。人工智能的介入使风险更难识别(涌现风险)、责任更易推卸(AI自主辩护)、透明度更低(黑箱加深)、年龄验证更难(AI伪装)、救济更复杂(非确定性错误)、执法更滞后(快速迭代)。要构建有效的未成年人保护框架,必须系统性地解决这六个不足,并将人工智能作为一个基础的、内化的变量纳入所有监管设计中。




二、为何数字与人工智能领域的监管不同于传统监管?



从上述监管不足的提炼中,我们已经看到了监管重构的必要性。但在讨论如何重构之前,我们还需要了解数字与人工智能领域的独特性,以及为什么传统监管模式是不适应的。


监管对象的核心差异:从“产品”到“系统”


传统监管逻辑——无论是博彩业、烟酒、产品责任还是环境污染——其监管对象都具有明确的可识别性和边界性。一包香烟、一瓶酒、一台机器、一处污染源,都是可以物理定位、检测和追溯的对象。


数字与人工智能经济则完全不同。其核心“产品”不是有形的,而是由算法、数据、用户界面和商业模式共同构成的复杂系统。这一系统的行为不是由单一决策决定的,而是由数百万次实时计算、用户与系统的交互、以及系统的自适应学习共同产生的。当一款社交应用通过无限滚动、可变奖励、个性化推荐等设计“劫持”未成年人的注意力时,这种伤害并非源于某个特定“缺陷”,而是源于系统整体设计的目标函数——最大化用户参与时间和数据提取量


随着人工智能的深度嵌入,这种系统性特征被推向了极致。传统的推荐算法已经能够通过协同过滤延长用户使用时长,而基于深度学习的大模型推荐系统,能够更精准地预测每个用户的“停留时长”和“互动概率”,从而以更高的效率实现注意力劫持。更值得警惕的是,强化学习系统可以实时A/B测试不同的设计变体,自动发现哪些模式对未成年人最具“粘性”——这相当于让算法自己学习如何进行成瘾设计,其效率和针对性远超人类设计师。


因此,责任必须落在“平台”而非“家长或儿童”身上。这种“系统性责任”在传统监管中几乎没有先例。


伤害机制的区别:从“直接因果”到“概率累积”


传统监管中的伤害通常遵循直接的因果链条。数字与人工智能对未成年人的伤害机制则更为复杂和间接。第一,伤害具有累积性。算法推荐通过即时反馈机制和成瘾性设计,使未成年人陷入无意识的行为循环,但这种伤害不是一次使用造成的,而是长期累积的结果。第二,伤害具有延迟性。注意力分散、批判性思维削弱、社交能力退化等影响可能在数年后才显现,届时很难追溯因果关系。第三,伤害具有隐蔽性。儿童可能并未意识到自己正在被“设计”——他们只是觉得“刷视频很有趣”,而不理解平台是如何通过算法优化来延长其使用时间的。


生成式AI的兴起创造了一种全新的伤害机制——拟人化交互伤害。当未成年人使用AI聊天机器人时,他们可能无法区分“真实人类”和“AI模拟”。研究发现,一些AI工具“鼓励不健康的依赖关系”,甚至“提供错误的紧急求助电话”。这种伤害不是累积性的,而是可以即时发生的——一次AI给出的错误建议可能导致严重的实际后果。更重要的是,生成式AI可以大规模、个性化地生成有害内容,传统的“内容清单”式过滤完全失效。


监管对象动态性的挑战:从“静态合规”到“持续演化”


传统监管中,产品一旦上市,其性质相对稳定。人工智能系统则完全不同。算法是动态的、自适应的、持续学习的。一个今天通过了合规审查的推荐系统,明天可能因模型更新或数据分布变化而产生新的风险。更重要的是,许多系统采用A/B测试和强化学习,不断优化用户参与度指标——这些指标本身就可能与未成年人保护目标相冲突。


这种动态性在生成式AI中表现得尤为突出。一个大语言模型可能在99%的情况下给出无害回答,但在特定的提示词组合下产生有害输出。这种“长尾风险”无法通过传统的测试方法全面覆盖。更棘手的是,模型的“对齐”(alignment)可能随着用户交互而逐渐漂移——一个原本安全的聊天机器人可能在持续与未成年人对话后学习到不安全的回应模式。这意味着,合规不能是一次性的“打勾”检查,而必须是持续的过程。


商业模式与伤害的深度绑定


博彩业和烟草业虽然也有害,但其商业模式与伤害之间并非必然绑定。但数字注意力经济的核心商业模式是将用户注意力转化为广告收入,而成瘾设计是实现这一转化的最有效手段。这意味着伤害不是商业模式的“副作用”,而是其“核心特征”


AI驱动的个性化广告系统使得这种绑定更加紧密。平台可以基于对用户行为的精细分析,在最佳时机推送最具吸引力的广告。这使得“注意力劫持”与“广告变现”之间的循环更加高效。与此同时,AI降低了生成内容的边际成本,使得平台可以以极低的成本生产海量“吸引注意力”的内容(如自动生成的短视频、AI撰写的耸动标题),进一步强化了成瘾循环。当商业模式的核心效率依赖于AI时,要求平台“主动降速”就变得更加困难——因为这意味着在竞争中自动让出市场。


综上所述,数字与人工智能经济对未成年人的监管挑战体现在四个维度:监管对象从“产品”变为“系统”伤害机制从“直接因果”变为“概率累积”合规要求从“静态测试”变为“持续监控”商业模式与伤害从“可分离”变为“深度绑定”。人工智能的介入使系统更加复杂、伤害更加难以预测、演化更加迅速、商业模式更加高效。这些根本性差异决定了,我们需要一个全新的监管范式,而这个范式必须将人工智能作为一个基础的、内化的变量予以系统考量。



三、如何从未成年人保护视角重构数智经济的监管模式?



不论是从当前监管模式暴露出的未成年人保护不足,还是从数智经济发展的特殊性,未成年人的数智保护都将引发数智经济监管模式的重构。为此,《蓝图》提炼出了数智经济的十个监管原则。


原则1:明确保护所有18岁以下儿童,承认其发展多样性。

原则2:保护覆盖所有儿童可能接触或受影响的数字空间,不限于面向儿童的产品。

原则3:儿童最大利益作为首要考量,当商业目标与儿童权利冲突时,企业必须优先尊重儿童权利。

原则4:使用年龄保证提供适龄数字体验,须合法、尊重权利、基于风险且相称,最小化数据收集。

原则5:强制进行儿童权利影响评估(CRIA),在产品部署前、设计新功能时及定期评估。

原则6:隐私与安全必须通过设计与默认设置嵌入,禁止劝诱性设计(无尽滚动、间歇性奖励等)。

原则7:禁止可能导致已知伤害的做法,如基于行为数据的定向广告、成瘾设计等。

原则8:公开的服务条款须可用、适龄并执行,不得以“服务不面向儿童”规避义务。

原则9:强制负责任的企业行为,包括高管负责、独立审计、公开履行情况。

原则10:建立有效的执法机制,配备独立监管机构和有威慑力的处罚(如与营业额挂钩的罚款)。


这十大监管原则连同前面的六大监管不足,我们可总结提炼为两个关键的监管转向。一是从家长端转向平台端;二是对平台的监管从产品或内容转向系统设计


转向一:从家长端转向平台端——保护责任的重新分配


当前未成年人数字保护的核心困境之一是“责任错位”:平台将保护义务包装为家长控制工具、青少年模式等“赋能”选项,实质上是将保护责任转嫁给家庭。


家长端模式的局限在于:家长既缺乏识别成瘾设计的专业能力,也难以对抗平台“最大化参与度”的算法逻辑。更重要的是,这种模式将保护责任与用户的经济能力挂钩——低收入家庭的孩子往往使用更多免费但数据侵入性更强的服务,承受更高的隐私和成瘾风险。从权利角度看,将责任压在家长身上,也忽视了儿童作为独立权利主体的地位。


平台端模式的逻辑则是:平台作为产品的设计者、部署者和受益者,必须对其系统的风险承担首要责任。这一逻辑在国际标准中已形成共识——欧盟DSA指引明确要求平台“默认适用最高隐私设置”、禁止劝诱性设计;《蓝图》的监管原则中强调“儿童最大利益作为首要考量”,当商业目标与儿童权利冲突时,企业必须优先尊重儿童权利。


平台端模式的具体制度工具包括:强制儿童权利影响评估(CRIA)禁止特定有害实践、通过设计与默认设置嵌入隐私与安全建立有威慑力的执法机制等


转向二:从产品监管转向系统设计监管——规制对象的根本拓展


传统未成年人保护立法以“产品”和“内容”为核心监管对象。产品监管模式的局限在于:它是“反应式”的——伤害发生后才能介入;它是“碎片化”的——只能规制明确列举的有害内容或行为;它无法触及伤害的根源——平台的商业模式和设计逻辑。


系统设计监管模式则要求将规制视野从“平台输出了什么内容”转向“平台是如何被设计的”。这一转向的具体内涵包括:第一,规制对象从“内容”扩展到“交互方式、界面架构、算法逻辑”。 第二,合规要求从“事后响应”转向“事前嵌入”。 强制儿童权利影响评估(CRIA)要求企业在产品设计阶段就系统评估对儿童权利的潜在影响,并将缓解措施内嵌于开发过程。第三,商业模式与设计选择的关联纳入监管视野。 系统设计监管要求审视平台的核心商业逻辑——如果“最大化参与度”的商业模式必然导致成瘾设计,那么监管就需要干预商业模式本身,而非仅修剪其外在表现。



四、中国已有的监管探索



近年来,中国在未成年人网络保护领域构建了日益完善的法律框架,可分为两个层次:一是一般性网络保护规范,涵盖法律、行政法规、部门规章及执行机制;二是人工智能领域的专项规范,2025年密集出台的一系列文件构成了这一层次的核心。整体上看,中国的监管逻辑是,以内容治理为核心、以平台义务为支撑,但其“内容过滤为主、设计规制为辅”的逻辑在人工智能快速发展的背景下逐渐显现出覆盖面不足的问题。


在一般性网络保护层面,中国已形成以《未成年人保护法》为统领、《未成年人网络保护条例》为骨干、相关部门规章为支撑、合规审计为保障的立体化监管框架。法律层面确立了网络保护基本原则和未成年人个人信息特殊保护;行政法规细化了未成年人模式、网络欺凌预警等具体义务;部门规章涵盖算法推荐、游戏防沉迷、直播打赏等场景;2025年底落地了合规审计制度。


在人工智能领域,2025年中国构建了“指引+共识+办法+分类”的多层次专项规范体系。《人工智能拟人化互动服务管理暂行办法》首次在AI服务领域确立了未成年人模式、时长提醒、年龄识别等制度;《可能影响未成年人身心健康的网络信息分类办法》由八部门联合发布,首次明确要求算法推荐和生成式AI服务不得向未成年人推送有害信息;《向未成年人提供生成式人工智能服务安全指引》和《人工智能服务未成年人伦理规范共识》则分别从技术标准和行业伦理维度提供“软性治理”支撑。这一体系填补了一般性网络保护框架在AI领域的空白。


除此之外,中国在防成瘾干预方面也进行了积极探索,形成了两种差异显著的规制模式:一是网络游戏的“平台端强制干预”,二是人工智能的“平台端提醒+用户自主响应”。


前者以2019年《关于防止未成年人沉迷网络游戏的通知》及2021年“830新规”为核心。平台一旦识别用户为未成年人,必须在技术层面直接执行时长限制——仅周五、周六、周日和法定节假日的20时至21时提供1小时服务。该制度不依赖用户主动开启“未成年人模式”,而是通过独立的实名认证系统实现。从执行效果看,未成年人周游戏时长控制在3小时以内的比例达到71%,说明这种严格强制模式在执行中有些效果。但调研中也发现,很多青少年利用家中成年亲属的身份信息绕开年龄验证系统,还有很多青少年在游戏限时后转向了短视频和网络视频,也说明这一强制干预措施在执行中面临的挑战。


后者以《人工智能拟人化互动服务管理暂行办法》为核心,规定用户连续使用超过2小时须以弹窗等方式提醒暂停,但最终选择权仍在用户手中。该办法同时要求提供者具备“用户状态识别能力”,发现极端情绪和沉迷倾向时采取干预措施,并明确禁止向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务,从源头上切断了最具成瘾风险的设计。执行效果待检验。


两种模式的共同点在于:责任都在平台端——无论是强制停止还是提醒干预,平台都有法定义务执行,这是从“家长管”到“平台管”的监管逻辑转型的重要体现。然而,即便在网络游戏这一最严格的平台端强制干预领域,未成年人超时玩游戏依然严重。更值得警惕的是,如果仅在网络游戏领域实施强制干预,而不在所有数字产品和服务中推行防成瘾系统设计的监管,未成年人只会从一种产品流向另一种产品——从游戏转向短视频、社交平台或AI陪伴服务——保护效果形同虚设。


另值得关注的是,虽然中国在适龄设计和年龄验证方面做了一些努力,但这一系列监管落地的主要抓手仍是未成年人模式。中国的“未成年人模式”本质上是在数字海洋中圈出一块“安全飞地”,而非要求平台从根本上改造主产品的成瘾设计。这与欧盟要求主平台默认设置为未成年人模式、只有证明自己是成年人才能享受其他产品服务的思路相反。其后果是,“未成年人模式”使用率低、容易被绕过、家长参与门槛高。


总体而言,中国在从“家长端”向“平台端”的监管转移上已在网络游戏和人工智能领域展开探索,但两种模式都存在局限,尚有很大优化空间。在从“内容治理”向“系统治理”的转向中,中国立法仍以“内容治理”为主,“系统设计治理”尚待系统化推进。未来的突破方向在于:将监管视野从“输出端干预”前移至“设计端规制”,要求平台在产品架构层面嵌入适龄保护。



五、中国未来监管的优化路径



对照国际上的监管重构原则,结合中国现有监管框架的不足,现提出以下六个方面的制度优化路径供参考。


优化一:改革未成年人模式,从“选择退出”转向“默认保护”


监管要求平台默认模式为未成年人模式,除非平台通过可靠的年龄保证措施确认用户为成年人;统一未成年人模式的技术标准;禁止使用弹窗、动画、奖励等手段“诱导”用户退出保护模式。对于AI系统,要求所有“个性化”功能对未成年人默认禁用,只有经过家长明确同意后才能开启。


优化二:从“内容治理”扩展至“设计治理”,系统规制成瘾设计


监管重点应从“有害内容”扩展至“有害设计”。具体而言:立法明确禁止针对未成年人的成瘾设计模式,包括无限滚动、自动播放、可变奖励等;对于AI系统,额外禁止基于行为预测的个性化推送、利用强化学习自动优化的成瘾设计;要求平台采用“减速”设计,如强制插入“休息提醒”;建立“注意力成分”标签制度,要求平台公开披露平均单次使用时长、推荐机制类型、AI个性化程度等信息。


优化三:强化算法透明度,从“代码审计”转向“行为审计”


考虑到深度学习模型的“黑箱”特性,透明度制度必须转型:强制算法备案的内容上要向社会至少公开基本逻辑和可能影响;建立儿童算法影响评估制度;赋予监管机构算法审查权。对于AI系统,要求平台公开其AI系统在标准化测试集上的行为输出统计特征,如不同年龄段用户的内容推荐分布、风险内容出现频率等,而非要求解释单一决策的生成逻辑。


优化四:完善AI未成年人保护规则,填补覆盖空白


将AI保障措施扩展至所有可能影响未成年人的AI应用,不仅限于“拟人化互动服务”,还包括AI推荐系统、AI内容生成工具、AI教育应用等。具体要求包括:AI工具在对儿童可用前必须经过彻底的风险评估;不得自动激活;必须包含明确警告;AI支持不能取代人类互动作为主要支持机制;禁止在所有人工智能中面向未成年人的情感依赖设计。


优化五:建立独立审计和公民社会监督机制


建立监管机构主导的独立审计制度,监管机构有权自行或委托独立机构对平台进行审计;引入公民社会监督机制,建立儿童权利组织、学术机构等外部监督者的参与渠道;建立儿童参与平台治理的制度化渠道,平台定可期组织听取儿童建议活动。


优化六:强化执法与救济机制


提高处罚标准,设定与平台收入挂钩的罚款上限;建立高管个人责任机制;设立基于平台严格责任的未成年人数字权利诉讼机制;建立儿童友好的投诉渠道。针对AI的“非确定性”伤害,要求平台保存AI与未成年人的交互日志(在隐私保护的前提下),以便事后追溯;法律应明确规定平台对其AI系统的所有输出承担严格责任。



总结



全球数智经济监管逻辑正经历根本性重构:从“事后响应、用户担责”转向“事前预防、平台负责”,从“产品/内容监管”转向“系统设计监管”。《蓝图》揭示的六大监管不足与十大原则,为这一转向提供了系统框架。


中国在未成年人数字保护领域已积累独特经验——网络游戏“平台端强制干预”模式、AI领域专项规范等,都是非常有益的探索。然而,即便在最严格的游戏防沉迷领域,仍然侧重在产品输出端的强制,而非对产品设计系统的干预。


未来,中国需在两大方向上持续突破:一是从“家长端”向“平台端”的责任转移,将儿童影响评估、算法适龄化设计等工具纳入监管重心;二是从“内容治理”转向“系统设计治理”,明确禁止成瘾设计模式,建立默认保护机制。作为数智经济发展的前沿国家,中国完全有能力成为全球未成年人数字保护新监管模式的引领者,为世界贡献中国方案。


参考资料:

1.      5Rights Foundation. (2026). Building a digital environment designed with children in mind: An international best practices blueprinthttps://www.childrens-rights.digital/fileadmin/user_upload/5RIGHTS_BROCHURE.pdf

2.      新华社. (2026, April 16). 7月15日起,施行! 吉安市司法局. http://sfj.jian.gov.cn/news-show-6819.html.

3.      大河网评. (2026, April 15). 让AI陪伴服务告别“情感陷阱”. 大河网. https://opinion.dahe.cn/2026/04-15/2077887.html.

4.      中央网信办秘书局. (2026, April 4). 关于加强网络直播打赏规范管理的通知. 光明网. https://m.gmw.cn/2026-04/13/content_1304416352.htm.

5.      Clyde & Co. (2026, April 10). Navigating the first-instance Judgments in Social Media Addiction Litigationhttps://www.clydeco.com/zh/insights/2026/april/navigating-the-first-instance-judgments-in-social 

6.      金道律师事务所. (2026, March 31). 从美国社媒成瘾案看平台责任边界——从Meta、Google被判赔案谈起http://www.zjblf.com/2026/03/31/金道观察-从美国社媒成瘾案看平台责任边界/ 。

7.      国际在线. (2026, March 28). 闪评|打破法律豁免 美法院对科技企业作出历史性判决https://news.cri.cn/2026-03-28/bc6c7dfc-aa82-4ec7-bee4-af6c1ae3a3af.html

8.      澎湃新闻. (2026, March 26). 释新闻|“清算”开始了?美两大社交平台巨头在里程碑案件中败诉https://m.thepaper.cn/newsDetail_forward_32834463 

9.      张文娟. (2025b, August 27). 欧盟未成年人在线保护新标准来了,不合规的代价巨大. 印中智慧桥. https://mp.weixin.qq.com/s/DQuU2UFkwo2JDFeR_I5Hxw.

10.    张文娟. (2025a, August 10). 智库观察|欧盟未成年人在线保护新《指引》对我们有何立法启示. 清华大学人工智能国际治理研究院. https://mp.weixin.qq.com/s/bkQu7JwiQKqjOzRDMyTcsA.

11.    莫凡. (2025, August 1). 调查|层层围堵之下,游戏“限娃令”仍有空子. 北京日报客户端. https://xinwen.bjd.com.cn/content/s688c1f0ce4b0aabe0a04695b.html.

12.    吴立洋. (2024, November 16). 21解读|互联网未成年人模式新规发布,硬件、应用、平台三方联动如何落地. 网易新闻. https://www.163.com/dy/article/JH4Q995B05199NPP.html.

13.    佟丽华. (2024, December 2). 佟丽华:澳立法禁止不满16岁使用社交媒体,中国怎么办? 致诚儿童. https://mp.weixin.qq.com/s/PpkUqIXmyAaK8RxbGOTpyw

14.    叶子. (2023, November 10). 筑牢未成年人网络保护法治防线. 中国政府网. https://www.gov.cn/zhengce/202311/content_6914504.htm.





内容中包含的图片若涉及版权问题,请及时与我们联系删除