【全球AI战略洞察】栏目由清华大学人工智能国际治理研究院推出,旨在通过对当前人工智能领域发生的重要信息进行“标注、提炼、解读”,剖析全球AI治理各国家间不同的战略图景,以此描绘人工智能治理领域的国际格局。


栏目主理人:刘典

复旦大学中国研究院副研究员、清华大学人工智能国际治理研究院战略与宏观研究项目主任

前言


2024年1月18日,世界经济论坛的AI治理联盟(AI Governance Alliance)发布系列简报,为技术加速转型时代背景下引领人工智能“负责任的转型”提供重要参考。

作为全球治理合作的中枢,AI治理联盟旨在解决人工智能的多方面挑战和机遇,为决策者提供引导,确保人工智能在未来与人类价值观保持一致,同时促进社会进步。该联盟由“安全系统和技术”“负责任应用与转型”和“弹性治理和监管”三个核心工作组构成。本次发布的系列简报是来自200余个组织的250多名成员的共同成果。该系列简报包含多方观点,为引导人工智能的发展、应用和治理划清了重点领域。



01

要点梳理
三个目标,分别对应三份简报:
  1. 开发安全系统和技术——简报一  Presidio AI框架:开发安全的生成式人工智能模型
    1. 建立“Presidio AI 框架”(The Presidio AI Framework)一个以人工智能生命全周期、强大的风险防范措施和早期安全防护为核心的全面框架。倡导多方合作,强调共同责任和积极的风险管理
    2. 该框架强调通过在生成式人工智能生命周期的早期阶段实施适当的防护措施,实现共同责任、缓解风险。
  2. 保证负责任应用与转型——简报二  从生成式人工智能中释放价值:指导负责任的转型
    1. 解决责任问题:进行明确治理
    2. 特别提出:建立以价值为主导原则的人工智能伦理委员会对于任何组织而言都是必要的。
    3. 解决信任问题:通过沟通提升透明度
    4. 解决规模挑战:多样化、灵活的运营结构
    5. 解决人类影响:基于价值的变革管理
    6. 业务影响(Business Impact)

    7. 运营准备(Organizational Readiness/ Operational Readiness)

    8. 投资战略 (Investment Strategy)

    9. 该简报分析了生成式人工智能的颠覆性影响,且指出领导者采用基于用例的方法部署人工智能模型的必要性
    10. 评估包含三方面
    11. 负责任的转型:
  3. 推动弹性治理和监管——简报三  生成式人工智能治理:打造全球共同未来
  • 主要阐释了人工智能治理的复杂性,通过比较各国政策响应,重点关注治理方法监管措施
  • 同时,该文突出了生成式人工智能的关键争议,包括风险优先级开放度(access spectrum)
  • 倡导国际合作强调开放公平访问渠道以及共同监管的要求,提出要将发展中国家纳入治理体系。

简报一  Presidio AI框架:开发安全的生成式人工智能模型

鉴于生成式人工智能模型所带来的各类风险,该简报主要提出要建立“Presidio AI 框架”(The Presidio AI Framework),通过生成式人工智能开发初期的防护措施,以保持创新、安全性和伦理之间的平衡。
该简报为确保人工智能的道德和负责任发展奠定了基础,倡导在未来将创新与严格的安全措施相结合。
本简报介绍了 Presidio AI 框架,该框架提供了一种安全开发、部署和使用生成式人工智能结构化方法。在这个过程中,该框架从人工智能模型开发者(AI model creator)、适配者(AI model adeptor,即把AI模型适配到某个特定领域上的个人或机构)、普通用户(AI model user)和应用用户(AI application user,即基于AI构建的应用的用户)四个主要视角,强调了不同角色在处理人工智能模型安全问题方面的参与度和责任差异。
全文主旨为,通过
  1. 共同责任,
  2. 早期风险识别
  3. 以及实施适当的防护措施
有效进行风险管理。

图为Presidio AI 框架三个核心要素:
Presidio AI 框架包括三个核心要素:
  1. 人工智能生命全周期(Expanded AI life cycle)
    1. 建立生成式人工智能生命周期的全面视图,表示在每个阶段都有不同的参与者,责任水平不一。
  1. 扩展风险防护措施(Expanded risk guardrails)
    1. 该框架详细说明了在生成式人工智能生命周期的不同阶段中考虑的防护措施,强调风险预防

图为风险防护措施以及投放阶段
防护措施
阶段
红队测试和人类反馈学习(RLHF)
模型构建阶段
透明文档和使用限制
模型发布阶段
模型漂移监测和水印
模型适配阶段


  1. 左移方法论(Shift-left methodology)

    1. 该方法论提议在生成式人工智能生命周期的早期阶段实施安全防护措施,以减轻风险并提高效率。

图为“左移方法论”图示
“左移方法论”要求在人工智能模型生命周期的早期阶段保证质量,并实施测试措施。其核心目标是主动识别和管理潜在风险,提高效率和成本效益。
图示说明了构建安全生成式人工智能模型的三个关键的左移实例
  • 从发布到构建:在模型构建阶段,人工智能模型开发者主动加入防护措施,并收集必要数据和模型信息,及其透明度信息。
  • 从适配/使用到发布:在模型发布阶段,人工智能模型开发者加入额外的防护措施,建立使用的规范和标准,并完成全面记录,以帮助下游参与者理解模型,做出关于模型使用的知情决策。
  • 从应用到适配:在模型适配阶段,适配者在将AI模型适配应用时,参考模型开发者所提供的基础模型记录,加入防护措施。

简报二  从生成式人工智能中释放价值:指导负责任的转型

该简报主要生成式人工智能所带来的新机遇,重点介绍了负责任转型的最佳实践。
  • 该简报提出,在采纳生成式人工智能用例之前,可以通过以下方面对其进行评估后,再扩大应用规模和转型。
  1. 业务影响(Business Impact):
    1. 是否通过提高生产率或提升人的技能、是否通过赋予普通人以专业技术和知识能力从而提升底线、是否能够解决人类目前无法解决的问题从而提升上限等。
  2. 运营准备(Organizational Readiness/ Operational Readiness)
    1. 模型应用阶段:技术人才 技术基础设施
    2. 模型发布阶段:人工反馈循环 可解释性和可审计性 模型安全
    3. 模型适配阶段:责任 合法性 利益相关方信任
    4. 其他:数据管理
  3. 投资战略 (Investment Strategy)
以上过程图示如下
  • 负责任的转型:
  1. 解决责任问题:针对即时和下游结果,进行明确治理
特别提出:建立以价值为主导原则的人工智能伦理委员会对于任何组织而言都是必要的。
  1. 解决信任问题:通过沟通提升透明度
  2. 解决规模挑战:多样化、灵活的运营结构
  3. 解决人类影响:基于价值的变革管理

简报三  生成式人工智能治理:打造全球共同未来

简报三为人工智能治理和监管相关者提供信息,并为世界经济论坛AI治理联盟未来关于弹性和共同治理的倡议奠定了基础。
该简报主要阐释了人工智能治理的复杂性,通过比较各国政策响应,重点关注治理方法监管措施
同时,该文突出了生成式人工智能的关键争议,包括风险优先级开放度(access spectrum)。
倡导国际合作强调开放访问渠道(access)以及共同监管(inclusion)两方面要求,提出要将发展中国家纳入治理体系。
一、本文考察了全球范围内各种国家对人工智能治理的响应,并确定了两个比较领域:
  1. 治理方法:AI治理可能侧重于风险、规则、原则或结果,以及是否已制定国家AI战略。
  2. 监管措施:AI治理原则可能基于现有的法律法规和官方机构,或新的监管机制。
二、由于生成式人工智能的到来增加了AI治理的复杂性,引发了相关治理讨论,本文重点讨论了两个问题:
  1. 风险优先级:如何优先处理人工智能的当前危害和潜在风险。
    1. 人工智能既存在短期危害,也存在一系列潜在的长期风险。关于如何确定应优先考虑人工智能的风险,以及应该考虑的时间范围,存在各种观点。
  2. 开放度:治理将如何规定人工智能技术的开放度问题
强调:
  1. 国际合作(international cooperation)
  2. 司法互通(jurisdictional interoperability)
  3. 共同治理(inclusive governance)
为防止全球人工智能治理环境分化,国际合作至关重要。促进国际合作和司法互操作性需要:
  1. 国际协调
    1. 为确保治理方法的合法性,需要囊括多利益相关方,包括政府、民间社会、学术界、工业界以及受影响的社群,基于对人工智能社会经济影响的协作评估,确保各方的意见得到充分考虑。
  2. 制定可兼容的标准:
    1. 为防止标准出现重大分歧,相关国家机构应提高兼容度,并努力与国际标准化计划合作。
    2. 为了广泛采用国际标准,标准制定必须有各国参与,能够代表各国意见。
  3. 灵活的监管机制:
    1. 为了跟上人工智能发展能力的速度,及时调整创新和治理框架,应迅速而具有高适配性。(灵活的监管机制需要考虑社会因素,且能随着生成式人工智能技术的发展,依旧适配不同文化、领域。)
三、促进公平获取和具有包容性全球人工智能治理:强调全球南方在人工智能的发展和治理中的角色
将全球南方纳入人工智能的发展、部署和治理的所有阶段,是人工智能创新、增加技术带来的全球社会经济利益和减轻危害的关键。
  1. 公平开放的人工智能技术获取渠道
    • 基础设施:算力、云服务提供商和能源资源获取不足
    • 数据:模型训练的数据和设计不足
    • 人才:获取教育和技术专业知识的途径不足
    • 治理:机构能力和政策制定不足
    • 开发生成式人工智能系统需要庞大的计算和云基础设施,需要高投入、高能耗。
    • 研究和开发生成式人工智能模型所需的计算基础设施主要只有少数几个拥有足够资金的行业实验室可以接触。
    • 全球南方因此无法参与先进人工智能模型开发。
    • 当前主要的生成式人工智能模型主要由美国和中国开发,并使用来自北美、欧洲和中国的数据进行训练。在生成式人工智能的发展和治理中积极纳入发展中国家的多样化声音至关重要。
    • 全球南方的学生通常无法获取开发新兴技术(如生成式人工智能)所需的教育和指导。
    • 这可能导致生成式人工智能研究人员和工程师的全球代表性不足,后续可能导致生成式人工智能产品中出现算法偏见和歧视现象。
    • 全球南方打造高质量教育和生成式人工智能专业知识,对于建立可持续的人才储备,并扩大生成式人工智能研究的区域范围至关重要。
    • 此外,来自全球南方的更多研究人员和工程师将带来生成式人工智能思想的多样性
    • 经济弱势国家往往缺乏制定有效人工智能治理政策所需的财政、政治和技术资源,这些国家内的监管机构严重缺乏资金。
    • 人工智能治理能力的不平等可能加强现有的权力失衡,且无法从生成式人工智能获益。没有关于数据和人工智能的治理政策可能导致隐私侵犯、滥用以及无法充分利用人工智能促进社会经济发展等问题。
    • 此外,资金不足的监管机构可能无法应对人工智能的伦理、法律和社会影响。
    1. 人工智能创新能够赋能全球各地区实现经济增长和发展目标,在卫生服务、提高教育质量、提高农业生产率等方面改善人们生活。
    2. 目前,全球南方在基础设施、数据、人才和治理四个方面都面临结构性不平等、权力失衡问题。
  2. 共同治理人工智能
    1. 为了充分解决独特的地区性问题,防止发展中国家在人工智能价值链中仅仅成为端点,必须重新制定治理框架,确保全球南方能够参与人工智能创新和治理。

    2. 全球南方纳入人工智能治理
来源:https://www.weforum.org/publications/ai-governance-alliance-briefing-paper-series/

主理人丨刘典

撰稿丨陶含孜
排版丨赵杨博
审校丨王祚
终审丨梁正 鲁俊群

关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

内容中包含的图片若涉及版权问题,请及时与我们联系删除