点击蓝字

关注我们

海外智库观察

近年来,人工智能的迅速发展归功于人工智能发展的三大要素:数据、算法和算力的同步提升。其中,算力为人工智能提供了基本的计算能力的保障,形成了重要的基础设施支撑。当前,随着人工智能算法模型的复杂度和精度愈来愈高,互联网和物联网产生的数据呈几何倍数增长,在数据规模和算法模型的双层叠加下,人工智能对算力的需求也越来越大。探讨如何对算力进行治理以及如何利用算力工具更好地实行人工智能治理具有重要的现实价值。本期智库观察聚焦人工智能算力和基础设施风险问题,选取新美国安全中心和兰德公司的2篇研究报告进行观察。


新美国安全中心

Center for a New American Security,CNAS


将算力应用于人工智能治理有助于提高治理效力

2024年3月28日,新美国安全中心发布其人工智能治理中心 (GovA) 的研究员Lennart Heim、人工智能治理中心政策主管Markus Anderljung和剑桥大学存在风险研究中心助理研究员Haydn Belfield共同撰写的文章《要治理人工智能,我们必须治理计算(To Govern AI, We Must Govern Compute)》。文章强调了算力治理的必要性和实现算力治理的可行性,并建议政策制定者谨慎使用这一政策工具实现治理目标,从而在实现安全目标和维护公民自由隐私之间取得平衡。


首先,作者阐释了算力的定义和算力具有可治理性的理由。计算能力,简称“算力”,是推动人工智能(Artificial Intelligence, AI)进步的关键驱动因素。在人工智能领域,研究人员发现了规模定律(Scaling Law),即随着用于训练模型的计算量的增加,训练目标的性能可预见性地提高。开发者将这一定律运用于大型语言模型、自动驾驶汽车、围棋机器人、蛋白质折叠预测等系统中,通过利用大量算力,在庞大的数据集上训练人工智能模型解决问题,从而取得了重大突破。基于算力带来的积极影响,科技公司通过提升硬件水平和增加投资以支持算力的发展,使得用于训练人工智能系统的计算量每六个月翻一番(如图1所示)。其中,AlphaGo、GPT-4往往是使用最多计算量训练的系统。此外,算力的自身特性以及在人工智能中的关键地位使其具有可治理性。首先,算力具有可检测性,由于大规模的AI开发需要大量资源的支持,并且通常需要成千上万的专用芯片在消耗大量电力的数据中心中,因而算力是易于检测和识别的。其次,算力具有可排斥性,因为用户访问数据、算法或模型的难度较高,因而需要对其进行治理。第三,算力具有可量化性,比如可以根据芯片每秒执行的操作次数或其与其他芯片的通信带宽来对算力进行量化衡量,因此可以较为容易地进行报告和评估算力。最后,算力的供应链集中化的特性,即从芯片设计、制造设备到芯片制造通常由少数行为体主导(如图2和图3),使得对算力进行治理具有迫切必要性。


图1


图2


图3


其次,作者基于算力的四个特性,讨论了算力治理对实现人工智能治理目标的好处与弊端。一方面,算力治理有助于支持三种类型的人工智能治理目标:其一,增加对AI开发和部署的可见性。算力的可检测性可以帮助人们以多种方式理解使用、开发和部署算力密集型AI系统能力的过程,例如,可以要求云计算提供商监控大规模的算力使用情况,从而使政府更好地识别潜在的问题或了解AI能力提升的情况。同时,还可以利用算力在AI系统训练和推理过程中的差异来帮助数据中心运营商了解客户的算力使用情况,进而以一种适当的方式来处理隐私问题。其二,算力的可排斥性和可量化性能够帮助AI在不同项目和行为体之间得到更好的分配。例如,决策者可以通过增加某些有益于AI研究和开发的计算资源来差异化推进有益的AI发展,亦可以被用于调节AI发展的速度,比如,政府可以通过购买大量的算力储备以调节经济中的计算量,从而影响AI的整体发展速度。其三,算力治理有助于严格执行围绕AI开发和部署的规范与法律。比如,多方行为体可以通过投票决定和分配使用大量算力的权力,以确保最具风险的训练运行和推理受到严格的审查,防止具有风险的训练的运行。另一方面,算力治理仍可能存在治理效果不佳的可能。其一,随着算法和硬件的不断改进,算力治理的效果可能会降低,随着实现任何给定AI能力所需的功率和成本的降低,算力也将会变得不可检测和可排斥。然而,算力治理的有效程度在很大程度上取决于算力的相对能力与绝对能力,只要算力的规模效应继续产生回报,少数行为体仍会进一步开发更前沿的、更强大的模型,算力治理就可以得到不断发展。其二,算力可能不适合用来治理具有危险能力的低算力专业模型。例如,AlphaFold 2仅使用少于1023次操作就实现了对蛋白质折叠预测的超人类表现;GPT-4等模型的计算量少了两个数量级这表明算力治理措施似乎更适用于源自少数算力密集型模型的风险。此外,算力治理也可能带来巨大的负面影响,例如过度干预的算力治理措施可能会对公民的自由造成负面影响,增加对人工智能可见性的措施可能存在增加私人敏感信息或商业信息泄露的风险,以及随着算力作为经济和政治资源的重要性日益凸显,对算力的集中控制可能存在监管机构、政府和人工智能公司滥用权力的风险。


最后,为更好地实现算力治理的效用,在增加算力治理的有效性的同时减少意外的伤害,作者建议决策者谨慎和慎重地使用算力治理。第一,应当更有针对性地出台和执行算力治理措施,例如以重点关注开发和部署前言AI系统所需的大规模算力资源。第二,决策者应当实施保护隐私的实践和相关技术。当算力治理涉及包含个人信息的大规模算力时,要求企业减少对用户隐私的不当使用和获取。以云AI训练进行了解客户(know-your-customer, KYC)制度为例,仅将其应用于大量云AI算力的直接购买者,几乎不会为消费者带来隐私风险。第三,将基于算力的控制聚焦于事前措施。算力治理通常是一种粗糙的工具,通常用于减轻风险和维护既定群体利益,且侧重于事后机制,往往在一些不良行为发生后才采取惩罚措施。第四,决策者应当定期审查与控制算力相关的决策,根据算力的实际发展更新相关治理措施。第五,由于许多算力治理的措施可能被滥用,作者建议将实质性和程序性的举措纳入控制算力的措施。就实质性措施而言,这些控制措施可以通过限制可以实施的控制类型、监管机构可以请求的信息类型以及受此类法规约束的实体类型来防止算力治理的负面影响。程序性保障措施可以包括通知和评论规则制定、保护告发者的措施、监管机构内部的检查员和消费者代表、司法审查的机会、咨询委员会以及关于活动的公开报告。







兰德公司

Rand


人工智能技术将继续在关键基础设施领域得到广泛应用

2024年4月2日,兰德公司发布其高级政策研究员Daniel M. Gerstein和技术分析师Erin N. Leidy共同撰写的报告《新兴技术与风险分析:人工智能与关键基础设施(Emerging Technology and Risk Analysis:Artificial Intelligence and Critical Infrastructure)》。作者借鉴了有关智能城市的文献,构建了基于技术可用性与风险和情景的分析框架,并比较了未来十年中短期(至多三年)、中期(三至五年)和长期(五至十年)三个时期这些框架下的人工智能关键基础设施的可用性和相关风险。


首先,作者分别从技术就绪度、使用范例、技术需求与市场、投入的资源、政策、法律伦理与监管障碍和技术可访问性五个方面对人工智能在关键基础设施中的可用性进行评估,并给出了相应的治理建议。首先,人工智能领域包含的多种技术会在不同的时间尺度上成熟,使得确定人工智能领域的确切技术就绪度水平(Technology Readiness Level, TRL)具有挑战性。因此,作者建议将各个人工智能技术的TRL与可能开发的用例相关联,从而使检查人工智能可用性的更加行之有效。其次,由于人工智能技术的发展可能会变得不受控制和具有颠覆性,民众对其在就业、过度依赖、规则遵守和可控性方面存在担忧,作者建议同时兼顾人工智能技术的发展和相关的防范措施,以确保不会发生失控情况。第三,人工智能技术的就绪度不断提升使得越来越多的关键技术的可获取性将增加,人工智能系统的可用性也随之增加。作为人工智能的组成部分,人工智能系统的迭代推动了开发和训练模型所使用的数据量不断增加,民众对于人工智能模型的信心也将因而增强。然而,由于人工智能工作人员的供不应求,导致人力资本可能成为人工智能准入的壁垒。第四,包括国家领导人、联合国和工业界在内的广泛群体认识到了治理人工智能的重要性并出台了管控人工智能技术的政策,未来相关政策将继续完善。第五,随着人工智能模型的基础被开发,技术的扩散将无法避免。对此,作者强调,评估关键基础设施的本质仍是更好地使用人工智能技术,以提高信息通信效率、改善政府服务的质量,并为民众带来福利。总体而言,作者认为,人工智能应用将继续在新的市场和用例中得到整合,并导致人工智能可用性的增加。同时,这些应用将会变得更加复杂,并为用户提供更强大的功能(如表1)。具体表现为人工智能技术的就绪度将随着单个人工智能技术的研发成熟而持续增加,政策、法律、伦理和监管障碍不会对人工智能技术的使用构成重大障碍。但资源上的对立仍将存在,即开发复杂的人工智能系统将超出大多数寻求开发新人工智能系统的用户的能力范围,但利用人工智能系统进行各种合法和非法目的的情况很可能会更加普遍。


表1:作者从短期、中期和长期评估关键基础设施中的人工智能潜力


其次,作者从威胁、脆弱性和后果三方面评估了人工智能技术对关键基础设施带来的风险。首先,虽然人工智能技术能够带来提升效率和确保安全等好处,但其也存在不同的威胁来源。一方面,人工智能在为防御者提供了先进技术的同时,也为供给者提供了尖端技术,增加了黑客攻击的入口,使其能够利用网络漏洞发动网络攻击,在人工智能系统的开发过程中,内部人员可能会造成疏漏并创建漏洞,使得这些漏洞成为被攻击的对象。此外,人工智能技术存在的威胁将持续性的积累,进而导致所有有助于人工智能发展和使用的技术,比如积累和保护关键数据的能力、高性能计算、半导体开发和制造、机器人技术、机器学习和自然语言处理等,都可能成为被攻击的广泛目标。其次,随着人工智能系统应用的拓展,其脆弱性也日益凸显。例如,能够规划和控制智能城市甚至关键基础设施的人工智能平台可能会被用恶意行为者利用以攻击这些关键基础设施。同时,随着人工智能系统变得越来越复杂并接近人工智能通用智能,人类将越来越难以理解和评估人工智能驱动的过程的结果。为减少上述漏洞,作者建议政策制定者将美国国防创新委员会制定的五项人工智能技术原则纳入人工智能开发过程,并在开发和部署全阶段整合和测试人工智能技术,以确保任何关键基础设施应用的功能性、安全性和故障模式被充分理解并在既定限制范围内。第三,鉴于关键基础设施项目和部门跨越了广泛的范围,并得到了大规模地运作,其产生的负面后果将造成更大的损失,尤其是那些能够影响整个行业或关键部分的关键基础设施,在遭受人工智能威胁的攻击时,其损失可能难以得到补救。因此,作者强调,为降低严重后果的影响,在开发和保护关键基础设施时应当充分考虑到人工智能技术的复杂性,同时充分考虑到其可能产生的巨大负面影响,开发和部署人员应当确保适当的防护措施已经就位,继而建立公众对人工智能系统的信任。总体而言,作者认为人工智能对关键基础设施中的威胁、脆弱性和消极后果在未来将呈持续增加的趋势(如表2)。与此同时,威胁形势可能由威胁行为者和关键基础设施利益相关者进行的不断竞争所定义的增量进展所决定,在适当进行验证和验证之前提前推出技术可能会成为对手的重要目标,从而可能导致应用失败。


表2


最后,作者指出,人工智能是一种具有变革性的技术,很可能会广泛应用于包括关键基础设施的各个领域。然而,保护人工智能的发展和安全很可能会受到许多影响其他新兴技术的因素的影响,如果不能确保网络安全、保护知识产权、确保关键数据的保护,以及保护专有方法和流程等,可能导致国家的关键基础设施中存在潜在的灾难性漏洞。此外,尽管公众对人工智能技术的发展抱以乐观态度,但在作者看来,该技术仍处于相对早期的成熟阶段,美国政府应出台相关战略和指令,负责任发展和使用人工智能、实施这些规则将是确保适当的防护措施得以落实的关键。







原文链接:

[1]https://www.cnas.org/publications/commentary/to-govern-ai-we-must-govern-compute

[2]https://www.rand.org/pubs/research_reports/RRA2873-1.html

文章检索:周韫斐
编译:朱奕霏、杨雨虹
审核:王净宇
排版:赵杨博
终审:梁正、鲁俊群


清华大学人工智能国际治理研究院编
上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

往期回顾

海外智库丨人工智能国际治理观察第234期

海外智库丨人工智能国际治理观察第233期

海外智库丨人工智能国际治理观察第232期


关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

内容中包含的图片若涉及版权问题,请及时与我们联系删除