主理人:刘典

【AI国际治理知识库】

(下划浏览)

在全球化和技术革新浪潮中,人工智能作为一种颠覆性的技术力量,正在深刻改变全球经济结构和社会秩序,并引发了广泛的关注和一系列复杂的治理挑战。随着AI技术的快速发展和广泛应用,建立有效的国际治理框架变得尤为迫切。AI国际治理知识库关注全球视野下人工智能国际治理的关键趋势与地缘政治背景下的科技和数字治理问题,为关注相关问题的朋友提供及时、有效、严谨、全面的知识信息。






前言:“国内人工智能立法进展、影响及展望”知识库







人工智能已经成为当今国际竞争的关键领域,人工智能的治理之争也日益凸显。随着2023年初生成式人工智能惊艳问世,欧美等国家密集展开人工智能治理活动,加快布局人工智能立法,力图引领国际规则制定:2023年欧盟因通用人工智能特点迅速修改《人工智能法案》并达成初步协议,意图在人工智能新技术治理领域重现布鲁塞尔效应,2024年3月13日,欧洲议会正式通过了《人工智能法案》;2023年10月30日,美国总统拜登签署《安全、稳定、可信的人工智能》行政令,以确保美国在AI发展和管理风险方面处于领先地位。

我国高度重视人工智能的发展和治理,早在2017年,国务院发布的《新一代人工智能发展规划》提出了“三步走”的立法规划,并在2023年6月6日发布的《国务院2023年度立法工作计划》中明确将《人工智能法》列入立法规划。2023年8月,世界上第一个有关生成式人工智能的成文法《生成式人工智能服务管理暂行办法》生效实施,“暂行”二字意味着一部统一的、综合的《人工智能法》正呼之欲出。





Part1 全国人大人工智能立法计划概况
1.全国人大人工智能立法计划概况

2.我国人工智能领域相关立法举措梳理 


Part2 探索人工智能治理的中国路径


      1.《人工智能法示范法1.0(专家建议稿)》

      2.《人工智能法(学者建议稿)》

Part3 人工智能立法对国内人工智能的发展可能产生的影响







1.人工智能立法对国内人工智能的发展可能产生的影响


2.我国人工智能立法进程前瞻


Part1全国人大人工智能立法计划概况


01


全国人大人工智能立法计划概况

2023年6月,国务院办公厅印发《国务院2023年度立法工作计划》,明确提出“预备提请全国人大常委会审议人工智能法草案”


2023年7月14日,国家互联网信息办公室联合国家发展和改革委员会等部门发布《生成式人工智能服务管理暂行办法》,成为我国现阶段促进生成式人工智能健康发展和规范应用的主要法规。紧接着,中国社会科学院法学研究所在2023年8月提出了《人工智能法示范法1.0(专家建议稿)》。但是,全国人大常委会2023年9月发布的今后五年立法规划中却没有提及人工智能法。这种显著的温差表明:自从ChatGPT横空出世,人工智能的飞速迭代使我们迅速滑入人机并存的未知混沌之中,科技和产业的发展与人类社会的安全之间的张力变得空前巨大,不同需求尚未找到适当的平衡点或妥协点,立法机关采取了更慎重的态度。2024年3月,中国政法大学等七所大学的研究者共同发布《人工智能法(学者建议稿)》,试图掀起新一波热潮,促进立法进程。

今年全国“两会”期间,也有多名人大代表呼吁制定人工智能法,对人工智能法律问题作出全面规定。全国人大常委会层面对人工智能相关立法也颇为关注。十四届全国人大常委会立法规划专门提出,“推进科技创新和人工智能健康发展”,近日公布的全国人大常委会2024年度立法计划中,人工智能健康发展立法已被列入预备审议项目。5月9日,国务院办公厅印发《国务院2024年度立法工作计划》(以下简称《国务院立法计划》),多部网络法治相关立法在列,“人工智能法草案”再次列入预备提请全国人大常委会审议项目。

从国内来看,人工智能相关顶层法律层面呈现了“1+3”的模式。“1”是指《民法典》《民法典》第四编人格权编里,第六章隐私与个人信息保护,确立了人工智能发展的基础。其后《网络安全法》《数据安全法》《个人信息保护法》“三驾马车”也初步奠定了人工智能发展的基础,但是就人工智能规制来说,针对性仍有差距。而在部门规章领域,如《互联网信息服务的深度合成》、像《算法的推荐》,包括《生成式人工智能管理暂行办法》等,已经开始触碰人工智能的实体。

因为对发展与安全之间的价值判断和公共选择还没有形成共识,欧洲议会在2023年6月通过《人工智能法》谈判授权草案之后,曾有包括西门子和空客在内的150多家科技企业联名发布公开抵制信,指出法案规定过于严苛的监管机制会大幅度压缩科技创新空间,延误欧盟数字经济的发展;人工智能的治理和立法都应该加强相关行业的参与。11月发生的OpenAI高层戏剧性政变,也充分反映了“发展优先”与“安全优先”两条路线之间的激烈斗争。尽管如此,2024年3月欧洲议会还是以高票正式通过了《人工智能法》。这意味着欧盟的立法机构确立了安全优先于发展的价值排序,要求成员国加强对科技前沿拓展和应用场景的监管,同时也试图对域内的数字空间实行保护主义政策。

与此同时,三十几位海内外技术专家和企业领袖在中国签署了《北京AI安全国际共识》,为人工智能研发划出几条明确的红线,并试图以此为基础形成国际合作机制。北京共识的主要内容包括确保人类对AI系统复制和迭代的控制、反对大规模自动化武器的设计、导入国家注册制以便按照全球对齐的要求加强监管和进行国际审计、防止最危险技术的扩散、开发全面的治理方法和技术、建立更强大的全球安全保障网络。非常有趣而又耐人寻味的对照是,当欧洲科技企业担心偏重监管的欧盟《人工智能法》势必吞噬占投资17%的AI产业发展之际,《北京AI安全国际共识》却呼吁各国政府和企业把AI研发预算的三分之一投到安全保障领域。“33%vs.17%”的成本效益竞争,仿佛构成规则制定话语权的崭新制高点。

02


我国人工智能领域相关立法举措梳理

2024年3月4日,十四届全国人大二次会议在人民大会堂新闻发布厅举行新闻发布会,大会发言人娄勤俭在答中外记者问时提到,2023年,全国人大常委会对《科学技术进步法》实施情况进行了执法检查,下一步我们将研究推进科技创新方面的立法,特别是深入研究人工智能、生物技术等前沿科技领域有关伦理、道德、安全等重要问题,不断完善科技法律体系。具体到人工智能领域,专家认为立法工作的重点包括数据保护与隐私权益、算法公正与透明度、人工智能安全与监管和知识产权与成果转化等。李强总理更是明确在2024年政府工作报告中提出,深化大数据、人工智能等研发应用,开展“人工智能+”行动。



来源
建议及提案
具体内容
全国人大代表,小米创办人、董事长兼CEO 雷军
围绕绿色低碳、人工智能、智能驾驶、智能制造等领域提出了四份建议
建议一:加快建设制造业绿色低碳供应链
  1. 加快建立制造业碳足迹背景数据库,推动国际衔接与互认。
  2. 支持打造绿色数字化供应链系统,实现供应链内协同联通。
  3. 探索建立绿色电力全国交易机制,促进链主企业引领供应链绿色转型。
建议二:加强培养人工智能人才,满足科技变革需求
  1. 从义务教育阶段普及人工智能素养教育。
  2. 大力推进高校人工智能相关专业的建设。
  3. 支持大型科技企业和教培机构培育人工智能应用型人才。
建议三:进一步规范智能驾驶产品安全应用
  1. 规范辅助驾驶功能应用,打造更安全的驾驶体验。
  2. 规范自主代客泊车功能应用,保障无人化场景体验安全。
  3. 规范车端数据使用,提升智能驾驶产品安全水平。
建议四:加大智能制造支持力度,加快融合先进技术发展
  1. 促进先进智能技术与制造业融合创新,加速工业大模型部署。
  2. 完善标准体系建设,探索智能制造“中国范式”。
  3. 支持龙头企业承接智能制造重大专项,攻关关键技术装备。
全国政协委员、360集团创始人兼董事长 周鸿祎
围绕人工智能应用和安全提出了两份提案
提案一:关于深化人工智能多场景应用支持大模型向垂直化、产业化方向发展
  1. 政府、央国企应率先提供更多应用场景,聚焦“小切口,大纵深”,推动大模型垂直化、产业化落地,助力百行千业数字化转型,实现数转智改。
  2. 鼓励企业在定制AI大模型前,做好知识管理,将企业大数据平台升级为企业知识平台。在此基础上,通过垂直训练,深入企业级场景,满足企业需求。
  3. 励和引导企业将大模型与数字化业务系统深度结合,同业务流程相结合,充分发挥大模型价值。
提案二:关于鼓励兼具“安全和AI”能力的企业解决通用大模型安全问题
  1. 建议国家更加重视通用大模型安全问题,给予兼具“安全和AI”能力的企业专项扶持政策,更好发挥其解决通用大模型安全问题的重要作用。
  2. 建议国家研究制定保障通用大模型安全的标准体系, 推动通用大模型开展安全评测、接入安全服务,降低通用大模型安全风险。
  3. 鼓励政府、央国企与兼具“安全和 AI”能力的企业在大模型安全领域展开深入合作。
全国人大代表、科大讯飞董事长 刘庆峰
围绕AI领域带来了多份建议
建议一:制定国家《通用人工智能发展规划》
在2017年《新一代人工智能发展规划》的基础上,瞄准我国通用人工智能发展中需要重点补上的短板进行设计,围绕自主可控算力生态构建、高质量数据开放共享、科学的评测标准制定、源头技术前瞻研发、人才培养、法律制定和伦理人文等维度,系统性制定国家《通用人工智能发展规划》。
建议二:在制定国家《规划》的同时,应加快推进通用大模型的相关工作,不断缩小中美通用人工智能产业在通用底座平台方面的差距
  1. 建议发挥举国体制优势,加大并保持对通用大模型底座“主战场”的持续投入。
  2. 建议加快形成围绕国产大模型的自主可控产业生态。
  3. 建议推动国家级高质量训练数据开放和共享。
  4. 建议出台更加客观、公正、可信的评测方法,加快大模型在行业领域的应用落地。
  5. 建议坚持源头核心技术系统性创新,在战略性、前瞻性的基础研究领域做好布局。
  6. 建议加快推广大模型赋能全学段,以全新机制加快探索我国人工智能拔尖创新人才培养。
  7. 建议研究通用人工智能时代人才能力素质模型和培养方案,加快应用型人才培养。
  8. 建议加速通用人工智能技术相关的法律法规制定与审议。
  9. 建议设立软课题进行通用人工智能相关的伦理人文研究。
全国政协委员,上海市浙江青年人才联合会主席、金杜律师事务所高级合伙人 张毅
围绕人工智能治理
建议一:在立法层面,我国可加快推进《人工智能法》的出台,以构建人工智能算法治理体系,弥补监管体系空白
以人工智能法及配套的监管工具为核心,形成完整的人工智能技术法律体系。
建议二:在监管手段上,建议强化和创新算法监管。通过完善算法治理联席会议制度,实现多部门协同监管,形成“横向协同,纵向联动”的算法治理格局
  1. 要在实践层面落实“包容审慎”的治理理念,可能还有赖于对人工智能产业发展现状与痛点、引发的风险程度与范围等进行充分调研,设置“包容审慎边界——划定安全底线”的刚柔并济路径,寻求平衡发展与监管的“破题”之策。
  2. 参考其他成熟的监管思路,将人工智能和算法技术按风险等级进行划分,并针对不同等级采取不同的监管措施。例如,可能会通过潜意识操纵用户的人工智能系统应被直接禁止。
  3. 考虑到人工智能技术的复杂性和专业性,张毅建议,借助市场力量,外聘或者借调人工智能领域的专家共同参与监管法律体系的建立。
  4. 参考金融科技行业的监管经验,引入“监管沙盒”制度等创新监管工具,对于原有监管制度存在空白或不明确的,在一定条件下,允许企业进行试验性的开发、测试和验证。
  5. 强化由网信办牵头,国家发展改革委、工业和信息化部、公安部等部门共同参与的算法治理联席会议制度。
全国政协委员,知乎创始人、董事长兼CEO 周源
重点关注了人工智能治理和完善中文语料库等议题
建议一:建立数据合规的监管机制,推动完善AIGC监管立法,保护和规范人工智能领域的数据合规
  1. 对大模型的数据采集来源、处理方法、合规性等进行监督和审查。
  2. 应加强对大模型的社会影响和风险评估,及时发现和解决可能存在的问题。
建议二:加强数据安全和知识产权的保护措施
  1. 一方面是推动大模型研发机构和企业制定严格的保护政策和行为规范,严厉打击侵权行为,确保数据持有方的知识产权和利益得到充分保护。
  2. 另一方面是制定相应的鼓励和扶持政策,保障拥有丰富高质量数据储备及持续生产能力的企业和社会主体得到整个行业的重视,促进数据要素市场的形成和生产能力的持续发展。
全国人大代表、四川省律师协会会长 李世亮
针对人工智能立法
建议:我们国家目前处于一个AI技术发展的起步阶段,还没有相对成熟的市场经验,因此精准立法的条件还不成熟
  1. 相比立法,规范性文件的制定和修订都更加灵活,现阶段《生成式人工智能服务管理暂行办法》能够基本满足监管需求。
  2. 我们在立法中可以借鉴欧盟经验,给市场一定的发展空间。
国政协委员,民革广东省委会副主委、深圳市委会主委,深圳市人大常委会副秘书长 何杰
针对人工智能立法与人工智能治理
提案一:积极参与人工智能全球治理
  1. 通过参与全球治理,提升中国在全球人工智能规则制定中的影响力和话语权,保持与全球的认知同步,建立共同的话语体系。
  2. 探索警惕个别大国企图垄断人工智能发展优势从而便利其搞“小院高墙”“脱钩断链”,甚至要把意识形态偏见引入人工智能治理,打造封闭排他的“小圈子”,恶意阻挠他国人工智能发展等行为。
  3. 积极支持在联合国框架下酝酿成立国际人工智能治理机构,研究协调规管国际人工智能发展、安全与治理等重大问题。
提案二:加快打造人工智能治理的中国模式和国际样板
  1. 逐步建立健全法律和规章制度,保障人工智能研发和应用中的个人隐私与数据安全。
  2. 推动建立风险等级测试评估体系,针对文字、图片、视频生成模型分类分级管理,实施敏捷治理,紧跟技术发展情况,快速调整管理措施。
  3. 积极行动,倡导建立多语言、多宗教的综合性国际开源数据集,尽量减少数据的偏见。


中央层面人工智能治理相关文件


国家机关
文件名

发布

时间

最高人民法院
《关于规范和加强人工智能司法应用的意见》(法发〔2022〕33号)
2022/12/8
科技部
《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》
2022/7/29
教育部
《人工智能领域研究生指导性培养方案(试行)》
2022/7/27
科技部
《关于支持郑州建设国家新一代人工智能创新发展试验区的函》
2021/11/13
科技部
《关于支持哈尔滨建设国家新一代人工智能创新发展试验区的函》
2021/11/13
科技部
《关于支持沈阳建设国家新一代人工智能创新发展试验区的函》
2021/11/13
科技部
《国家新一代人工智能创新发展试验区建设工作指引(修订版)》
2020/9/29
中央网络安全和信息化委员会办公室
《关于做好个人信息保护利用大数据支撑联防联控工作的通知》
2020/2/4
教育部、国家发展改革委、财政部
《关于“双一流”建设高校促进学科融合加快人工智能领域研究生培养的若干意见》
2020/1/21
国家林业和草原局
《关于促进林业和草原人工智能发展的指导意见》
2019/11/8
科技部
《国家新一代人工智能开放创新平台建设工作指引》
2019/8/1
教育部
《高等学校人工智能创新行动计划》
2018/4/2
工业和信息化部
《促进新一代人工智能产业发展三年行动计划(2018—2020年)》
2017/12/13
卫生部
《人工智能辅助治疗技术管理规范(试行)》
2009/11/13
卫生部
《人工智能辅助诊断技术管理规范(试行)》
2009/11/13

Part2 探索人工智能治理的中国路径


01


《人工智能法示范法1.0(专家建议稿)》
中国在2023年4月份就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见,并于7月正式发布《生成式人工智能服务管理暂行办法》,率先就生成式人工智能监管这一议题给出中国方案。此外,人工智能法也已被列入国务院2023年立法工作计划。未来,中国如何通过立法在拥抱技术发展的同时有效规制风险,贡献出具有中国特色的人工智能治理路径,将受到国内外各界的密切关注。

2023年上半年以来,在持续、长期追踪研究人工智能发展、监管的基础上,中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》课题组主持人、中国社会科学院法学研究所网络与信息法研究室副主任周辉组织多方专家团队,经多次调研、讨论、修改,起草形成《人工智能法(示范法)》(以下简称《示范法》)。《示范法》立足时代前沿,把握人工智能发展规律和全球治理趋势,在为国家关立法提供参考的同时,也期待通过1.0、2.0、及至N.0的迭代讨论,不断适应人工智能发展安全态势,更好推动凝聚依法发展和治理人工智能的共识。

《示范法》涵盖总则、工智能支持与促进、人工智能管理制度、人工智能研发者和提供者义务、人工智能综合治理机制、法律责任和附则七大章节。总体来看,《示范法》坚持发展与安全并行的中国式治理思路,提出了负面清单管理等治理制度,并对人工智能产业链条各主体责任义务分配等核心问题进行了回应。

《人工智能法示范法 1.0(专家建议稿)》中,专家强调以国家机关的先行先试促进人工智能的推广应用,采用负面清单管理制度对人工智能进行风险管理,负面清单内的研发、提供活动采取许可机制,实行事前监管;负面清单外的研发、提供活动则采取备案机制,事后监管机制,并提出应设置“国家人工智能主管机关,负责统筹人工智能发展和管理”,同时相关部门应坚持发展导向,设计了尽职免责等相应条款,以为人工智能创新活动提供宽松政策环境。

02


《人工智能法(学者建议稿)》


2024年3月16日上午,“AI善治论坛 人工智能法律治理前瞻”专题研讨会在北京举办,会议发布了《中华人民共和国人工智能法(学者建议稿)》,起草专家组由中国政法大学数据法治研究院、西北政法大学法治学院、中国信息通信研究院、北京航空航天大学法学院、华东政法大学数字法治研究院、西南政法大学科技法学研究院、中南政法大学知识产权研究中心七家单位的专家组成。来自北京大学、清华大学、中国人民大学、中国人民公安大学、中国社会科学院、对外经济贸易大学、北京电子科技学院等二十余所全国高校的专家学者出席了此次会议。


会议探讨了如何更好地引导和规范未来人工智能产业的健康发展。起草专家组经过一年的紧张工作,特邀国内人工智能治理领域的技术专家、法律专家、实务专家提出建议,为完善《人工智能法(学者建议稿)》提出具体意见,共同回应现实需求,为立法建言献策。会议分为两个单元,分别就《人工智能法(学者建议稿)》和人工智能法律治理问题进行了深入的交流和讨论。


建议稿在拟定过程中,主要围绕影响人工智能产业发展和技术创新的因素确定相应的章节体例和条款内容。就目前而言,算力、算法数据人工智能产业创新核心驱动力,故而建议稿也是基于这三类影响因素确定相应的技术应用监管和产业发展保障相关的条款内容设计:


第一,在数据方面,基于大模型的人工智能产品或服务需要海量高质量的训练数据优化算法模型、提升产品或服务性能。因此,在第二章“发展与促进”中,多次提及数据要素供给、数据合理使用等问题。哪些数据能够作为人工智能训练数据是当下产业界较为关注的问题。因为诸如图片、视频乃至文学作品被用于训练算法模型时,其合法性问题争议较大。赞成者认为仅用于算法训练属于正常的技术创新研发活动,反对者则认为未经许可的使用行为本身已经构成对著作权等权利的侵害。为此,第24条则明确了“合理使用”的具体情形。


第二,在算法方面,建议稿则通过鼓励算法模型创新、关键技术创新以及开源生态建设,引导人工智能产业研发和创新既有的算法模型,促进研发者开发和设计兼顾科技伦理和合法性的算法模型。


第三,在算力方面,建议稿明确将“算力互联互通”作为基本原则,并在算力基础设施建设和算力资源利用等方面细化了多元算力的统一整合、调度和供应。


相比于《人工智能法示范法1.0(专家建议稿)》此次建议稿没有采用负面清单制度,而是设置了关键人工智能和特殊应用领域人工智能监管制度。相比于负面清单制度的事前许可审批制度,关键人工智能没有设置事前准入门槛,仅在接收到被主管部门认定为关键人工智能的通知后,才需履行监管平台备案等义务。关键人工智能的义务加重主要包括,开发者和提供者需要建立风险披露机制和安全事件应急处置机制,以此确保关键人工智能发展的安全性。


特殊领域的人工智能则是根据不同的应用场景,分别进行有针对性的安全义务加码。建议稿希望通过这一制度设计,为产业创新减轻事前的准入负担,在确保安全需求的同时,鼓励我国企业积极参与人工智能开发和创新,促进我国人工智能产业健康发展。建议稿立足于我国本土,其充分考虑了我国产业发展实际和安全监管需求,并结合我国在网络和人工智能法治建设中已有的监管理念和经验,是人工智能治理领域中国智慧与中国方案的集中体现。



Part3 人工智能立法对国内人工智能的发展可能产生的影响



01


人工智能立法对国内人工智能的发展可能产生的影响

中国的人工智能立法具有不同于其他领域立法的独特之处,因此人工智能立法需遵循以下三个基本逻辑:其一,能够高度适应不确定性。人工智能技术的颠覆性与快速迭代性,使得未来技术发展与可能引致的风险具有高度的不确定性。这与传统立法相对稳定性和滞后性存在冲突,因此我国的人工智能立法需容纳并适应人工智能发展的这种高度的不确定性。其二,明确回应本土的独特性需求。因人工智能技术与产业具有独特的国际地位,故我国的人工智能立法需表达依托于特定国际环境条件而产生的本土化诉求,与科技领先的美国和以输出治理理念为先的欧洲均有显著区别。其三,完善人工智能法律制度,有效应对国际竞争。人工智能立法因其调整对象人工智能技术的跨国性、涉及国际竞争的复杂性、对中国治理主张的代表性,将成为涉外法治领域的重要组成部分,因此制度设计需具有高度的国际竞争视野。


人工智能的立法,便于相关机构可以对技术或者产品进行限制以及监督,避免技术被滥用的可能。不仅仅如此,存在相关法律制度设计,人工智能技术的生产商,也有了公正和规范的市场竞争环境,规范的立法和监管制度可以避免人为的错误和滥用,从而构建信任和安全的网络环境,在公平的环境下把焦点都倾注在产品技术研发上,减少一些不必要的问题滋生,让产品或者技术更好服务于人类。社会层面的抵触性可能在于立法的方法和内容仍然存在一些争议。比如要确定哪些内容需要被纳入法律里面,而且又该如何界定是否违法;在保障安全的前提下,不能影响技术的研发和推进,监管过于严格会影响生产商对技术或产品的研发落地。最终要面对的是如何在推动创新、收获人工智能效益、应对人工智能带来的风险和有效保护权利之间实现平衡。


立法内容可能涉及到多个群体的利益,包括研发技术产品的生产商、消费者等,所以制定政策者的应当在制定立法时考虑到这些不同群体的利益诉求,并采取广泛的咨询和参与程序,来保证立法的可行性以及公正性。研发技术产品的生产商要遵守立法的规定,在相关法律的要求下生产产品,或者对产品更新迭代,很可能还需承担传达立法的内容和宗旨的责任,让公众明确了解到产品或者技术是在遵守相关法律法规的情况下进行的。而对于享用技术或者产品的公众来说,也需要普及立法内容,避免由于不了解相关法规内容导致一些问题出现。


人工智能的立法也不是一成不变的,应该是一个长期的调整和改进,要根据技术或者产品的发展更新慢慢的进行调整和完善,才能跟上产品技术的进步。如何把控很关键,对风险进行分层定义是一个方法,欧盟委员会在2021年4月提出的人工智能法律框架里,就按照风险高低,将人工智能应用场景分为“最低、有限、高、不可接受”四个风险等级,等级越高的应用场景,受到的限制越严格。但法案也引发了许多争议,比如有人提出复杂的审查要求和程序,会增加企业的行政成本,尤其不利于中小型数字初创企业,遏制创新和技术运用,延缓欧盟的数字转型进程。法案反映了欧盟在促进创新和权利保护之间难以有效平衡的内在冲突。参考2022年我国上海发布并正式实施《上海市促进人工智能产业发展条例》,作为人工智能领域在国内的首部省级地方性法规,其中也提到了不同风险等级的表述:要求对高风险的人工智能产品和服务实行清单式管理,遵循必要、正当、可控等原则进行合规审查。对中低风险的人工智能产品和服务采用事前披露和事后控制的治理模式,促进先行先试。《人工智能法》的相关制度应充分促进人工智能技术在生产生活中的应用,避免设立“高标准严要求”的监管制度。人工智能技术与产业的长远有效发展,有赖于其充分地融入社会生产生活,成为推进社会发展的动力。


欧盟《人工智能法案》对全球人工智能发展产生重大影响


产生的影响
具体内容
《人工智能法案》引领全球人工智能分级监管开启法规化进程
在人工智能技术迅速发展的时代浪潮下,《人工智能法案》继承了欧盟对数字经济一贯的严格立法态度,从具体制度到处罚力度均体现出高压的一面。《人工智能法案》要求系统提供者和使用者都要遵守数据管理、记录保存、透明度、人为监管等规定,以确保系统稳定、准确和安全。还针对生成式人工智能设立专门监管制度,对人工智能生成的内容引入强制性标签,并强制披露受版权保护的训练数据。对于违反规定者,监管机构会迫使企业从市场上撤回应用程序,企业还可被处以高额罚款。法案覆盖了所有非军事用途的人工智能类型。将AI系统分为低风险、高风险、不可接受风险、特定透明度风险等不同等级,按照风险级别制定相应的监管规则。(例如,根据该法案,不可接受风险等级的AI应用,将会被直接禁止。对于存在系统性威胁的通用AI,将会被更严格地监管。)这些都意味着在欧盟AI分级监管正式进入法规化。
《人工智能法案》带来人工智能创新与合规的平衡
该法案的核心目的是为了在鼓励技术创新和保护人权之间找到平衡点。一方面,鼓励人工智能技术的进步和创新;另一方面又必须确保技术创新不会侵犯公众的基本权利。该法案规定了严格的前置审查程序和履行合规义务,重点对具有高风险的人工智能产品和服务实施治理,要求人工智能公司对其算法保持人为控制,向监管机构提供技术文件,并为“高风险”应用建立风险管理系统。这可以说是AI创新与合规平衡的探索。
《人工智能法案》推动人工智能稳健可持续发展
人工智能法案在某些方面不仅仅是对技术的监管和约束,同时也可以通过刺激投资和创新来促进人工智能的全面发展。这种综合的法案可以为人工智能行业提供明确的方向,同时平衡了AI创新和AI社会责任的双重需求。在以下几个方面产生积极影响:首先是社会接受度提高,减少社会担忧,提高公众对AI技术的接受度。其次是降低负面影响,降低AI技术可能产生的负面社会、经济和伦理影响,增加社会对技术发展的信任。第三是明确监管框架,为企业提供清晰的法规指引,降低法律风险,提高合规性,激发行业规范,通过鼓励社会责任,有助于行业自发形成更为严格的规范标准,推动企业更好地遵守规则。第四是风险管理与可控性提升,减少技术风险,减轻可能的负面后果。第五是推动AI可持续发展与长期利益,能够对社会产生积极影响,构建一个更加健康、可信赖的AI生态系统。


欧盟《人工智能法案》对全球人工智能发展产生重大影响



02


我国人工智能立法进程前瞻

国内学界对《人工智能法》立法这一主题进行讨论,是为了尽快地回应当下紧迫的社会治理需求。人工智能的发展存在诸多争议。“法与时转则治,治与世宜则有功”。所谓立法适于时,是指依据社会需求推进国家层面的人工智能治理框架,综合性的人工智能立法宜择机出台。所谓立法宜于世,则是指立法应回应全球“南方”国家的发展需求,实现《人工智能法》《全球人工智能治理倡议》的联动。

一方面,当立法共识尚未充分形成,全面立法条件不成熟时,可采用灵活方式推进国家层面人工智能治理。在我国的法治实践中,2012年全国人大常委会制定公布了《关于加强网络信息保护的决定》,对公民个人信息、网络信息内容管理等作出框架性规定。在该决定施行的4年后,广受瞩目的《网络安全法》顺利出台,成为网络安全和信息化领域的基础性立法。科技立法相对传统法律部门创制具有更强的时效性,故中国《人工智能法》可以考虑通过灵活的形式载体,以小快灵立法、全面性立法乃至法典化立法等形式适时推进,这样既可以提高治理体系的敏捷程度,也有助于最大程度地化解法律滞后与技术创新的固有冲突。

另一方面,在国际层面倡导人工智能发展权。我国在全球人工智能治理倡议》中提出,各国均有“平等发展和利用人工智能的权利”,主动为国际人工智能治理规则的形成贡献中国方案,为技术后发国家谋求主动提供了可借鉴的制度路径,有助于避免人工智能强化技术壁垒、加深数字鸿沟。《人工智能法》中应设立“国际合作”专章。国际合作应兼顾横向合作与纵向合作。横向合作旨在确定覆盖人工智能整个社会技术环境的最低要求,凝聚全球人工智能治理共识,主要体现为促成人工智能的共同定义、制定兼容性的国际原则、建立跨国治理协调机制等。纵向合作应围绕特定领域开展,依托部分贸易协定和国际经济论坛。目前主要国家就人工智能在国际贸易的影响和应对已经展开长期对话,但人工智能算力基础设施建设、人工智能标准制定和人工智能数据安全治理等事项还有待更深入的国际合作。

人工智能时代已经到来,中国的《人工智能法》的出台还有多远?从2023年初OpenAI的ChatGPT惊艳问世,到2024年初Sora再一次引起全球关注,技术发展的脚步日益加快,人工智能正加速改变着产业、社会和世界。中国应当有一部《人工智能法》来彰显国家对于人工智能治理的立场,为我国人工智能技术产业的发展保驾护航。也只有在法律这一位阶层面制定人工智能法律制度,才能够统筹协调并确立国家层面人工智能治理制度,真正实现立法先导,发挥法治在人工智能发展治理领域固根本、稳预期、利长远的基础性作用。

主编丨刘典

编辑丨朱政宇

排版|夏冉

审核丨梁正 鲁俊群

关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG


内容中包含的图片若涉及版权问题,请及时与我们联系删除