点击蓝字

关注我们

海外智库观察

人工智能技术在国际社会上引发了广泛的关注,不同类型的行为体,如国际组织、超国家行为体、国家行为体、私营部门以及个人分别提出了有关人工智能治理的倡议、规则、规范和原则,人工智能国际治理日益具备出“机制复合体”的特征。然而,人工智能技术的发展会产生新问题,人工智能国际治理需要不断地发展以适应技术的变化,因而,关注人工智能国际治理的前沿主张具有极强的现实意义。本期智库观察选取日本和印度学者的研究,以期从更多角度展现人工智能国际治理的有关思考。


美国战略与国际研究中心

Center for Strategic and International Studies, CSIS

塑造全球人工智能治理:七国集团广岛人工智能进程的增强和后续步骤

2024年5月24日,美国战略与国际研究中心发布华盛顿特区人工智能和先进技术瓦德瓦尼中心客座高级研究员、日本京都大学法学院研究教授Hiroki Habuka撰写的文章《塑造全球人工智能治理:七国集团广岛人工智能进程的增强和后续步骤(Shaping Global AI Governance: Enhancements and Next Steps for the G7 Hiroshima AI Process)》。文章分析了广岛人工智能进程全面框架的结构和内容,并考察了“广岛进程高级AI系统开发组织国际行为守则”(HCOC)如何融入G7国家的国际AI治理格局,以及如何促进高级AI系统监管的互操作性的问题,最后讨论了HCOC未来发展的潜在关注领域。


首先,作者简要阐述了AI治理的历史及其特点。AI治理的简史可追溯到2010年代初深度学习的突破,当时AI在各行各业迅速普及,暴露出诸多潜在风险。由此,包括G7成员在内的政府、国际组织、科技公司和非营利组织开始发布一系列政策和原则,将AI发展与核心价值观和关键原则相结合。尽管这些基本价值观和原则为AI系统提供了重要基础,但将它们转化为可执行标准仍是一大挑战。为此,各级别采取了多种举措来弥合这一差距,包括国家层面和超国家层面的行动。当时许多已发布的负责任AI开发指南和原则缺乏法律约束力,成为“软法”的例子。因此,为推动更强有力的AI治理承诺,已有大量立法活动针对高风险AI系统。而2023年基础模型的兴起则为AI治理格局增加了新的复杂层次。总的来说,AI治理的简史特点是在创新与监管之间寻求平衡,技术快速进展与多利益相关方整合并行。具体而言,首先,虽然团体可能有不同优先事项,但也越来越认识到合作的重要性。例如,在2023年5月峰会期间,G7领导人承诺在年底前建立广岛人工智能进程(Hiroshima AI Process, HAIP),而在短短六个月内,G7数字和技术部长就提交了全面框架。除此外,得到29个国家和地区的认可的英国布莱切利宣言(Bletchley Declaration)也成为国际AI合作的重要里程碑。联合国AI咨询机构发布的《人类治理AI》中期报告涵盖了AI治理的一整套考虑因素和行动。而欧洲理事会人工智能特设委员会则介绍了《AI条约》框架公约草案,为负责任AI开发设定了高标准。上述倡议的参与国家各不相同,但G7国家均有所参与,且代表了具有显著经济、监管和技术影响力的一组民主国家。因此,在这些国家建立高级AI系统的互操作规则对于避免重复合规成本和促进全球创新至关重要。其次,应对AI风险的举措由最初依赖软法原则和公私合作努力,逐渐转向制定具有法律约束力的立法。其中,欧盟的AI法案和加拿大拟议的《人工智能和数据法案》(Artificial Intelligence and Data Act,AIDA)涵盖了各个行业,而日本、英国和美国则侧重于特定行业或强大基础模型的AI法规。尽管重点有所不同,但所有这些实例都着眼于高风险AI,旨在在促进发展与确保安全之间取得平衡。特别是G7国家在核心原则上找到了共识,将AI治理策略植根于透明性、可解释性、偏见预防及人权和民主价值观。


随后,作者分析了广岛人工智能进程全面框架的结构和内容。广岛人工智能进程全面框架由四个元素构成:经合组织关于生成型AI的背景分析报告、“广岛进程所有AI行动者国际指导原则”(HIGP)、HCOC以及基于项目的AI合作。其中,HIGP是一套全面的价值观和最佳实践,旨在促进全球负责任AI的开发和使用,包含了12个核心原则。这12个核心原则可分为三组:关于风险管理和治理、利益相关者参与、以及伦理和社会考虑因素。HCOC具体化了HIGP的11个原则基础上,并将其转化为高级AI系统开发和部署组织的实践准则,为AI流程和风险缓解提供了全面路线图,概述了风险管理和治理、利益相关者参与以及伦理考虑等方面的一般可行性项目。具体而言,它强调了整个AI生命周期中进行全面风险管理的重要性,如实施严格测试识别和解决潜在安全隐患、部署后监测漏洞和滥用情况、透明治理和风险管理政策、加大安全投资、开发内容认证方法以及优先考虑数据质量等。此外,HCOC还重视透明度、问责制和负责任信息共享,鼓励多方利益相关者参与。最后,它设定了一系列参数,确保AI在人权和民主界限内开发和部署,如强调开展维护民主价值观、尊重人权和保护弱势群体等社会安全研究,优先开发应对全球挑战的AI系统,并鼓励为相关国际技术标准做出贡献。


最后,作者指出了HCOC的影响力,并为其融入G7AI治理框架中提出建议。HCOC作为全面框架的关键工具,是增强各种AI治理框架间互操作性的关键。首先,虽然HCOC没有法律约束力,但作为一种有影响力的“共同指导”,它可以塑造合规行为,成为企业良好治理标准或预期法规的风险缓解策略,甚至可能影响民事判决。其次,HCOC的原则可整合到G7国家即将引入的新AI监管框架中,通过国家法律、政策更新或行业指导准则实现。最后,G7日本主席任内的HAIP等国际合作机制为HCOC和其他国际治理努力创造了合作空间,不仅为共同问题提供独特解决方案,还可深化对高级AI系统应对全球挑战和威胁的理解。虽然HCOC目前只是自愿性文件,在未来的发展中仍有一些潜在关注领域值得讨论和完善,但它可通过多种方式影响合规行为,并将被纳入G7国家未来的AI监管体系,HAIP等国际合作进程也为HCOC的发展提供了互利共赢的空间。









世界经济论坛

World Economic Forum



人工智能监管的最佳方式应当侧重于其用户和使用方式

2024年5月28日,世界经济论坛发布新德里社会和经济进步中心高级研究员Rahul Tongia撰写的文章《为什么在时刻保持警惕的情况下,监管人工智能会出人意料地简单(Why regulating AI can be surprisingly straightforward, when teamed with eternal vigilance)》。文章指出了基于既有数据训练人工智能的风险,提出了人工智能监管应当遵守可追溯性、可测试性和责任制三个原则,同时指出了既有监管的不足并提出了改善建议。


首先,作者指出,监管人工智能的最佳方式应侧重于人工智能的用户及其使用方式,并阐释了有原因。首先,人工智能技术其自身不太可能对人类具有毁灭性,人工智能对人类社会带来的影响取决于其使用方式,比如,一些政治媒体利用人工智能进行“深度伪造”而受到了指责;由于人工智能技术的广泛应用,从工业界、政府、教育界到创意艺术领域等全社会已经对人工智能的负面后果产生了严重关切。第二,尽管近期欧盟发布的关于人工智能的规则是一个有用的框架,该框架将人工智能的使用分为不同层次,包括从不可接受的高风险、被禁止的用途到最低风险和轻度监管,尽管确定风险等级并非易事。第三,虽然传统的法律法规规定了允许或禁止的内容,但因为人工智能是一种对外界不透明的“黑箱”技术,其输出的结果可能连其创造者都无法预知。更重要的是,人工智能通过“学习”而产生一种无法事先知晓的“涌现”行为,加之其学习过程具有不确定性,导致了人工智能具有基于既有数据训练而加深和固化偏见的风险。因此,作者认为,事前监管远远不足,人工智能监管需要不断地审查其结果。


随后,为了应对人工智能的风险,作者提出了监管人工智能的三项原则。首先,人工智能的应用和交互应当具有可追溯性,从人工智能外包公司到完整的产业链都应当遵守这一规定。比如,如果有民众因人工智能系统被错误地拒绝提供贷款,应当让其明白贷款请求被拒绝的原因。第二,人工智能应当具备可测试性。这要求立法者和研发人员保持持续性地警惕,不能仅依赖于预先指定的数据集进行测试。由于目前已有人工智能系统在没有用户要求的情况下通过说谎以提高其目标成功率的先例,作者认为对人工智能的要求首先应当是诚实地报告其行为。第三,为防止违反监管规定的人员将处罚仅仅视为承担罚款的行为,人工智能监管需要责任制,以提高人工智能使用者对人工智能使用及其结果的关注。尽管这三项监管原则在世界上一些地区有所体现,但其仍不充分。一方面,既有的通用的人工智能监管框架并不能适应当前人工智能的快速迭代、发展规模和不透明性。比如,尽管当前已经发布了有关知识产权的法律,但大多数人工智能系统是通过公共网络发布的内容进行训练的,公共网络上某些内容的所有者可能并不希望其内容被用于训练人工智能系统,一些媒体公司也为起诉了人工智能公司。另一方面,尽管算法监管是监管人工智能的一个良好开端,但当前只有少数国家在算法监管方面有所作为。其中,加拿大是做的较好的国家,其将算法监管扩展到人工智能领域,侧重于人工智能影响,并将自动化类型、决策的可逆性以及受人工智能影响的领域,如权利、隐私和自主权、健康、经济利益、环境等纳入考察范围。


第三,作者基于既有监管的局限提出了四点改善监管的建议。首先,在设计人工智能系统环节充分考虑人工智能决策失误的问题,使得公民具有应对人工智能失误而产生不当决策的应对路径。考虑到在现实中,一些具有贷款需求的民众可能在没有人工智能参与决策的情况下也被拒绝了贷款申请,且无法从银行获得充分的理由,作者建议改善消费者和公民的权利以应对这一超越人工智能技术的挑战。第二,无需担忧对人工智能进行严格监管,因为缺乏监管会带来更多的不确定性和开放性的风险,加之推行责任制并不意味着提出全新的法规,因而严格的监管是恰当且必要的。同时也应当注意到,可追溯性原则和可测试性原则并未提出解释性的要求,因而未来的人工智能监管也应当将可解释性这一终极目标考虑在内。第三,传统的监管框架会为技术公司提供“安全港”以允许其进行特许活动,例如,互联网服务提供商不对终端用户使用其互联网服务违法行为负责,尽管人工智能技术人员理论上应该享有这样的“免责”保护,但作者建议,一旦发现违规行为,相关实体必须采取行动进行处理。第四,人工智能不应该因为其与某一领域“深度嵌入而难以完善或进行调整”的问题,使用人工智能工具的公司应该证明其系统是模块化的,以便在发现违规行为时能够关闭或替换相关组件,同时不影响整个系统的运转。


最后,作者强调,监管人工智能面临的其他挑战类似于我们如何监管互联网,其中可能包括主权、管辖权和领域问题,在透明度和监管上去的平衡有助于应对这一系列的挑战。人工智能的迅速发展可能是一个挑战,但也提醒我们我们的监管必须不断进化并时刻保持警惕。








原文链接:

[1] https://www.csis.org/analysis/shaping-global-ai-governance-enhancements-and-next-steps-g7-hiroshima-ai-process

[2]https://www.weforum.org/agenda/2024/05/why-regulating-ai-can-be-surprisingly-straightforward-providing-you-have-eternal-vigilance/


文章检索:周韫斐

编译:边洁、朱奕霏、杨雨虹

审核:王净宇

排版:赵杨博

终审:梁正、鲁俊群


清华大学人工智能国际治理研究院编
上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

往期回顾

海外智库丨人工智能国际治理观察第239期

海外智库丨人工智能国际治理观察第238期

海外智库丨人工智能国际治理观察第237期


关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

内容中包含的图片若涉及版权问题,请及时与我们联系删除