点击蓝字

关注我们

海外智库观察

由于人工智能技术的特殊与多元属性,其治理涉及多个维度:隐私、人权、虚假信息、多元监管者等。当前,人工智能技术对公民权益、虚假信息、网络等方面的负面影响引发了从专家学者、决策者到公众的普遍担忧,与此同时,谁来监管人工智能?谁来负责等问题也引发了广泛的讨论。因而,从人工智能的基本属性出发,讨论谁来治理、如何治理兼具理论价值和实践意义。


美国企业公共政策研究所

American Enterprise Institute of Public Policy Research, AEI



人工智能监管需要掌握不确定性下决策的科学与艺术

2024411日,美国企业公共政策研究所发布了兰德公司的技术和安全政策研究员Bilva Chandra撰写的文章《谁来监控人工智能监控器? 他们应该注意什么?(Who Will Monitor the AI Monitors? And What Should They Watch?)》。文章强调了风险和不确定性的区别,指出了欧盟和美国在当前的人工智能监管中仅仅对风险进行管控,而忽视了不确定性问题,对此,作者建议,人工智能治理应当正视不确定性问题并做出合适的决策,以发挥人工智能的潜力。


首先,作者指出,所有的监管活动都受到代理问题的限制,人工智能领域被监管者和监管者之间存在信息不对称的问题更加突出,使得被监管者比监管者更了解受到监管的事物在人工智能领域,人工智能监管中的信息不对称问题更加突出。由于人工智能技术具有人类特性和不断迭代的特点,使开发者也不能完全地了解这一技术,并可能导致“黑天鹅”事件,使得审慎地风险管理也无法实现对其合理预期。对此,作者强调了人工智能技术的不确定性特点,并借助富兰克·奈特(Frank Hyneman Knight)在1921年提出的关于“风险”和“不确定性”的区别,指出了人工智能的不确定性难以被衡量和量化。因而,作者就人工智能治理提出了整体的方法论:不能仅仅采用风险管理的方式对其实施监管,而应当在直觉判断和经验教训的指导下,在这类复杂的、不稳定环境下建立其所适用的知识结构,并结合既已获取的具体信息来指导监管。


其次,作者指出,虽然欧盟和美国都提出了各自的人工智能治理方案,对人工智能应用部署的治理有着不同的要求,但这两者监管方案的本质上仍是风险管理和问责的官僚程序,而忽略了对于不确定性的关注一方面,欧盟出台的《人工智能法案(AI Act)》的文本中,在人工智能的“风险”方面列举了767个例子,美国在其“关于安全、可靠和可信地开发和使用人工智能”的行政命令中提到了风险101次,且二者都将治理基于这样的前提假设之上,即人工智能的开发者和部署者清楚了解应用可能带来的风险,并能自信地确定风险管理策略。然而,现实中,人工智能的发展还存在诸多不确定性。在不确定性方面,美国行政命令中根本没有提到不确定性,而欧盟庞大的文本中只有少数与法律不确定性有关的提及。另一方面,根据欧盟和美国的监管方案,受到监管的人工智能应用的部署者必须制定和登记注册负责该应用部署的具体个人,并被要求将应用的风险管理计划记录在案。尽管它们所管理的人工智能的结果仍然具有相当大的不确定性,但监管要求其呈现出具体和可量化的监管计划。


最后,针对欧盟和美国人工智能治理方案的弊端,作者建议美国和欧盟建设一支专门人才队伍来监测和报告人工智能活动,这些官僚人员不仅应当了解人工智能的工作原理和风险管理的具体实践,还需要了解人工智能部署的企业、行业及其运作方式,进而积累其在不确定性状态下进行决策所需的知识与经验尽管当前欧盟设立的人工智能办公室,美国的管理和预算办公室也将着手负责相关工作,但作者强调,欧盟和美国需要招揽的新型人才所掌握的技能不同于传统的政府官僚,其只有在正视不确定性下进行艺术和科学的决策才能真正发挥人工智能的潜力。








斯坦福大学以人为本人工智能研究所

Stanford HAI



人必须置于技术的中心位置以将人工智能技术惠及每一个人

2024年4月3日,斯坦福大学以人为本人工智能研究所发布了美国国务院网络空间和数字政策局数字自由特使兼协调员Eileen Donahoe、谷歌全球人权主管Alex Walden、联合国人权高专办专题参与、特别程序和发展权司司长Peggy Hicks、斯坦福大学网络政策中心联合主任Nate Persily和艾默生集团首席技术官Raffi Krikorian共同撰写的文章《生成式人工智能与人权的邂逅(Where Generative AI Meets Human Rights)》。文章反映了2024年2月14日专家学者们对于生成式人工智能对人权、民主等方面影响的讨论,并从联合国B-Tech倡议、参与基础、透明度等方面讨论了人工智能监管的出路。


首先,除了人工智能存在的一些常规性担忧,其也在其他方面带来了一些挑战。首先,如Nate Persily所言,人工智能技术日益成为其他所有技术的基础,而广泛存在的人工智能技术正在不断重塑了我们所处的经济和社会关系的未来,使得人工智能技术具备独特性。同时,人工智能技术比其他技术更加不透明,其应用也更难以预见,比如,OpenAI团队在发布ChatGPT时,并没有想象到它会被用于编码,而ChatGPT当前超过一半的用途是用于编码。其二,Alex Walden指出,人工智能具备高速和规模运作的新特点,其学习能力和适应能力都是以往的技术所不具备的,因而,人工智能技术具有复杂性。其三,人工智能的许多基础算法都是开源的,可访问性为恶意行为者提供了用武之地,比如,由于开源工具可以免费提供,导致了ChatGPT发布的第一年内出现了大量由人工智能生成的儿童色情内容。


其次,与会的专家学者们表达了对人工智能如何被使用以及已经被使用的强烈关切。第一,不同人工智能工具的快速迭代几乎使之存在着公众或决策者无法及时吸收的问题,导致技术的发展与其被吸收之间存在着巨大差距,这也将导致诸如网络虚假信息快速传播,而解决方案却未能及时制止等问题。第二,尽管联合国已呼吁暂停在人权侵犯最有可能发生的领域使用人工智能,但恰恰是在这些领域,技术进步似乎正在最快地推进。尽管人权从业者试图在法律上推进、补充、完善人工智能对人权负面影响的内容,但收效甚微。第三,虚假信息不断增长的问题可能会导致人们不仅相信谎言,甚至怀疑真实的事物。生成式人工智能传播的虚假内容为造谣者创造了可乘之机,使其能够充分利用民众对证据的不信任以扭曲事实真相。


最后,与会专家就人工智能监管问题提出了几点建议。第一,人工智能监管应当关注联合国的B-Tech(Business and Human Rights in Techonology Project)倡议,让科技公司将人权纳入技术研发当中。第二,人工智能监管方案必须建立在广泛参与的基础之上。然而,当前对于人工智能监管的讨论过于关注发达国家和英语国家,而忽视了人工智能技术欠发达和全球南方国家,因而,作者建议监管方案必须充分考虑到广大国际行为体,并包容地制定。第三,应当提高人工智能工具的透明度,使得监管者充分了解人工智能模型的能力。第四,对人工智能政策和监管应持包容态度。当今对人工智能的讨论几乎处于高度的两极分化当中:人工智能产品或好或坏,其会毁灭世界抑或拯救世界;监管责任要么在于研发技术的企业抑或应当由政府全权负责等。因此,作者强调,必须找到同时参与这两种对话的方法。最后,就对未来生成式人工智能的态度而言,与会专家们普遍表示他们持有所保留的乐观心态。一方面,专家们对技术的发展前景感到乐观;另一方面,专家们对当前的社会感到悲观,并对全社会是否能够有效达成治理人工智能并应对未来的威胁而持怀疑态度。



布鲁金斯学会

Brookings Institution



人工智能使网路中立性的斗争变得更加重要

2024年4月9日,布鲁金斯学会发布了学会治理研究访问学者Tom Wheeler撰写的文章《人工智能使网络中立性的斗争变得更加重要(AI makes the fight for net neutrality even more important)》。作者介绍了“网络中立性”的概念和历史,并反驳了网络服务提供商(Internet Service Provider ,ISP)反对”网络中立性“的理由。从而指出,ISP很可能在没有网络中立性原则的情况下出现人工智能歧视等许多问题,并再次强调了连接消费者和企业的互联网最后一英里非歧视性访问以及公正合理行为的重要性。


首先,作者阐述了网络中立性的基本原则。从最广义上说,网络中立性的基本原则,即对21世纪最重要网络的开放和公平访问并没有因为人工智能的出现而改变,只是因为其到来而所加强。像所有的人工智能结论一样,GPT oracle的观察必须对照人类的理解进行验证。这方面的结论与之前关于网络中立性对视频和在线应用程序分发的重要性的决策无异。值得注意的是,正如早期在数字公司的经济实力使相形见绌时一样,主要人工智能提供商(通常也是主导数字平台的同一家公司)的经济力量超过了网络服务提供商(Internet Service Provider ,ISP),但对于连接消费者和企业的互联网最后一公里的公正合理访问仍是数字时代的基石。


其次,作者介绍了一“开放接入”这一古老概念。随着西方文明开始封建时期走出,发展出了保护人民免受强权压迫的新规则:英国普通法,其基础之一是“交易义务”,要求必需服务不能在寻求使用其服务的人之间进行歧视,直至1860年,这种非歧视概念被写入美国法律。同样的非歧视概念“公共承运人”随着网络技术从电报发展到有线和无线语音服务而得到应用,互联网的存在也正是这种公共承运人要求的结果。基本网络应提供公正合理的非歧视性访问的观念,已成为数百年创新、投资和发展的核心。尽管互联网流量与早期公共承运人的形式不同,但这不改变一直是自由商业流动基础的公正合理非歧视的概念。


第三,作者介绍了网络中立性20年的历史。首先,2004年-2005年,由共和党联邦通信委员会主席迈克尔·鲍威尔提出的“行业指导原则”完成了从出现到成为联邦通信委员会鼓励的自愿政策的阶段,并由继任主席凯文·马丁将这些原则付诸实践。2008年,联邦通信委员会发现康卡斯特正在限制视频流媒体服务BitTorrent的流量,因此命令康卡斯特停止这一做法。康卡斯特以联邦通信委员会由于有线系统不是公共承运人而缺乏这种权力上诉此决定,至2010年,美国哥伦比亚特区联邦上诉法院裁定联邦通信委员会缺乏对有线公司互联网内容传递决策的法定权力。在随后的几年里,联邦通信委员会被处理了旧法律,联邦通信委员会也基于不同服务供应商,来对看似类似的服务进行了不同的处理。随后,万维网重新定义了互联网的性质,也包括了网站和应用程序。继任联邦通信委员会主席朱利叶斯·吉纳乔斯基主席提议修改早期的指导原则,以确立非歧视性以及向订户完全披露ISP的接入政策的概念,关于网络中立性的新规则于2010年通过了。这个所谓的“轻触”计划没有宣布ISP为公共承运人,但确实施加了类似公共承运人的义务,包括禁止阻挠或限制合法内容的规定,最终提案大体上遵循2015年的决定,确定ISP为公共承运人。


第四,作者驳回了ISP在广告方面、投资方面等方面反对网络中立性的缘由,美国商会在2024年发布的新闻稿中提到,控制互联网最后一程的公司,如有线运营商,正在利用电视广告作为反对网络中立性的策略之一,发起了一项七位数的广告活动,声称网络中立性威胁到了扩展互联网基础设施的关键投资,来批评了监管机构的过度监管。此外,美国有线电视/电信协会(National Cable & Telecommunications Association,NCTA)也发布了系列广告,并支持拜登政府的“互联网为所有人”计划。作者认为,这反映了尽管联邦政府通过新的计划提供资金支持,ISP仍然认为监管会抑制他们的投资动力,并通过投入数百万美元在广告上来反对网络中立性,但这一行为实际上可能在咬喂养它们的联邦之手。同时,作者指出,网络中立性规则也并未抑制网络投资。互联网服务提供商的高管在美国证券交易委员会监督的股东报告中证实,网络中立性不会产生负面影响。Free Press 2024 年的一项研究发现,在第二条网络中立性的回归成为人们积极讨论的问题期间,“在2023年任何一次全年投资者电话会议或其他投资者会议中,没有一个互联网服务提供商提及或暗示过这一点。”同样值得注意的是,当加利福尼亚州通过了一项与2015年奥巴马时期联邦通信委员会决定相平行的州法律时ISP的行为反应。在起诉阻止该加州法律并败诉后,这些公司不仅顺应了法律,也未能证明这种合规行为对他们的收入、利润或建设产生了所威胁的影响。


第五,ISP在反对网络中立性的主要论点之一是坚持其没有滥用,并试图通过宣称一直提供开放且无限制的互联网服务来重写历史。尽管历史上限制BitTorrent流量证明了ISP行为曾引发联邦通信委员会的首次介入,以及如果没有联邦通信委员会的规则,其会考虑采取歧视性的做法的潜在危害。这种行为的普遍性在特朗普政府撤销网络中立性规则后仍更为显著。研究也表明,ISP常常无视网络拥塞而降低某些服务的速度,这些行为与他们之前的承诺相违背,并表明ISP的行为出在没有网络中立性的保护下,可能会损害公共利益和消费者权益。


最后,人工智能更新了网络中立性辩论。到目前为止,针对网络中立性提出的论点是对相同的老游说观点的复述。然而,这些论点现在面临一个新的现实,即另一项在线创新:ISP访问权将取决于第三方ISP。毫无疑问,主要的人工智能平台与ISP相比不是弱者,对提供了大AI的大科技公司进行包括开放性、隐私和互联等基本概念的监管也存在迫切需求,但如果没有一个公平开放的互联网,从进行医疗研究到撰写学期论文的目的访问,人工智能发展都将受到影响。本年4月25日联邦通信委员会第7次管理网络中立性面临的问题不仅仅是复述这一口号,而是对21世纪主导和必不可少的网络是否将不受监督这一问题的再一强调。



[1]https://www.aei.org/technology-and-innovation/who-will-monitor-the-ai-monitors-and-what-should-they-watch/

[2]https://hai.stanford.edu/news/where-generative-ai-meets-human-rights

[3]https://www.brookings.edu/articles/ai-makes-the-fight-for-net-neutrality-even-more-important/


文章检索:周韫斐

编译:边洁、朱奕霏、杨雨虹

审核:王净宇

排版:夏冉

终审:梁正、鲁俊群


清华大学人工智能国际治理研究院编
上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

往期回顾

海外智库丨人工智能国际治理观察第236期

海外智库丨人工智能国际治理观察第235期

海外智库丨人工智能国际治理观察第234期


关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

内容中包含的图片若涉及版权问题,请及时与我们联系删除