点击蓝字 关注我们

海外智库观察


2023年10月10日,美国战略与国际研究中心(Center for Strategic and International Studies)发布其战略技术项目非常驻高级顾问比尔·怀曼(Bill Whyman)撰写的评论文章《人工智能监管即将到来——可能的结果是什么?(AI Regulation is Coming- What is the Likely Outcome?)》。文章提出了成功的人工智能监管设计的十个关键参数以及可能的结果,并认为美国很可能采用不同于欧洲广泛的人工智能法案,而实施一种分散的自下而上的方式,并可能最终产生一套拼凑而成、基于特定机构专业知识    且更适合激励创新的人工智能规则。


首先,作者指出,人工智能监管日趋激烈且日益政治化的论战反映了各国民众对人工智能(Artificial Intelligence, AI)技术在寄予厚望的同时也充满了恐惧,当前论战中的主流观点分为三类。正如著名技术专家和风险投资家马克·安德里森(Marc Andreessen)所言,“我们现在对AI有一种全面的伦理恐慌,这是一种非理性的歇斯底里的恐惧”,第一类观点对AI有“恐惧和偏执”情绪,AI科学家和行业领袖们也警告生成式AI具有威胁人类生存、甚至灭绝人类的巨大风险。约舒亚·本吉奥 (Yoshua Bengio) 、杰弗里·辛顿 (Geoffrey Hinton) 、OpenAI等科技公司高层管理人员以及包括中国和俄罗斯在内的许多AI专家都签署了一份声明,强调应将AI带来的灭绝风险与流行疾病、核战争等其他社会规模的风险一视同仁,并呼吁将缓解AI带来的灭绝风险作为全球优先考虑的问题,还有学者建议暂停开发比ChatGPT 4更强大的AI模型。第二类观点表达了对AI影响国家安全、军事能力和全球经济竞争力的担忧。目前已有31个国家通过了AI立法,还有13个国家正在讨论AI法律。其中,欧盟的《人工智能法案(AI Act)》意在成为“世界上第一部全面的AI法律”,希望开创其他国家可能效仿的先河,但其在实施中也面临着挑战。欧盟企业为此发表了一封公开信,来呼吁欧盟有效解决当前的问题和挑战,以免危及欧洲的竞争力和技术主权。第三类观点则对AI的发展持乐观态度。例如风险投资家安德里森·霍罗威茨(Andreessen Horowitz)就认为AI将拯救世界。马克·安德里森还批评了科技公司贩卖焦虑,推动AI监管以保护其经济利益的行为,认为AI可以成为一股巨大的向善力量,其只是一个由人所有、受人控制和使用、没有自我意识的计算机程序。他认为AI几乎不存在合理的担忧或负面的外部效应,因此应该允许公司和开源代码尽可能快速且积极地构建AI。此外,在欧盟更多的干预和风险资本家更多的放手之间,一些企业和民间社会团体正在倡导对AI进行不同程度的监管。例如,微软公司在其“治理人工智能:未来的蓝图(Governing AI: A Blueprint for the Future)”中提出了一种全面的方法,即建立一个新的政府AI机构,一个新的AI法律框架,其要求控制关键基础设施的AI系统必须安全制动,并为运行关键AI的数据中心颁发许可证。


随后,作者为帮助政策制定者和监管者应对AI监管问题提出并阐释了十个AI监管的关键参数。首先,以透明度、公平性、可解释性、安全性和信任为首要目标。其次,审慎使用基于风险的方法。AI监管在实施过程中会遇到很多障碍,如存在应当由谁来和如何来定义与衡量风险,提供AI服务的最低要求是什么,以及哪些是非法的AI应用等问题。第三,降低风险和区别应对恶意行为者。AI监管规则应反映出寻求遵守规则的合法企业与恶意行为者之间的区别,因此需要更强有力的规则和更具惩罚性的威慑来应对恶意行为者。第四,平衡创新和预先批准间的关系。由于没有预先审批,互联网在快速创新的同时,也导致了任何人可以不经许可在网上发布任何合法应用,但实施预先批准可能会制造市场进入壁垒,从而不利于创新和开放竞争。随着AI技术的快速发展,作者建议政府对高风险领域的AI模型进行预先审批或授权。第五,加强对数据流动、数据隐私和数据安全的关注。数据监管是AI监管的核心,一方面,AI模型的准确性和结果依赖于大量高质量的数据;另一方面,AI还可能会放大数据隐私问题,影响数据安全和跨境数据流动,但美国没有国家数据隐私法,而欧盟的相关管理则可以基于《通用数据保护条例(General Data Protection Regulation, GDPR)》进行。第六,根据具体情况决定是否出台新法律。美国政府有约50个独立的监管机构,许多AI风险都可以通过现有机构来解决,但现有的法律授权在许多情况下如何适用于AI并不明确,甚至存在空白。目前对于是否另立法律仍存在论辩,如微软公司建议“根据AI的技术架构制定广泛的法律和监管框架”,而其他人则认为最好根据现有法律对AI进行监管,反对建立新的法律制度。第七,适当设置机构进行监管。在设置机构进行监管前,必须思考AI带来的挑战的独特性以及是否需要设立专门的AI机构。虽然微软等公司提出了成立一个具有丰富资源和专业知识的新的政府AI机构,以解决“高性能AI基础模型”的问题,但历史经验表明,新机构可能会出现监管机构“博弈”、监管决策缓慢等官僚化的问题。第八,采用赏罚并存的监管策略。第九,应明确监管范围。当AI应用于高风险用途时,可以适当将监管范围扩大到应用程序及其运行的信息技术基础设施,甚至包括组件。第十,通过国际协调促进AI发展。由于不同国家制定的AI规则将不可避免地产生冲突,作者建议通过制定国际技术标准、AI原则共识等方法来解决规则不一的问题,以及通过共同研发和教育援助来鼓励AI协调发展。


最后,作者预测了美国的AI监管趋势。作者认为,受到政府的分散结构、政治分歧和AI复杂性的限制,美国国家政府不太可能采取强有力的行动,而会采取一种自下而上的分散式监管方法。这种方法可能存在漏洞,但其未来可能会产生一套拼凑的AI规则,并且如果该规则实施得当,其将以特定机构的专业知识为基础,并更符合创新要求。具体而言,美国的AI监管趋势将呈现以几个趋势:首先,就宏观的AI监管政策而言,未来几年内,美国不太可能出台像欧盟法案那样广泛的国家AI法律。两党之间的竞争与分裂使之不太可能通过一项包含新强制性规则的重要法律,但可能会完善其AI“权利法案”,并在医疗保健、金融服务、劳动力歧视和儿童安全等敏感领域采取行动。此外,在没有新法律的情况下,行政部门机构很可能会继续行使现有权力。其次,联邦政府将不断扩大在AI研究方面的支出。第三,将制定限制联邦机构项目中存在AI偏见和风险的行政命令,并可能制定侧重于在联邦信息技术中加强采用AI的其他命令,以改善公民服务和加强AI的安全性。第四,不同政府部门将采取各有侧重的监管行动。虽然都同为直属于商务部的机构,但美国国家标准与技术研究院(National Institute of Standards and Technology,NIST)将在定义AI标准和风险管理实践方面发挥着关键作用,国家电信和信息管理局(National Telecommunications and Information Administration,NTIA)的AI调查则将侧重于建立AI审计、评估和其他机制的生态系统之上。反垄断机构将牵头防止科技巨头主导AI、虚假和欺骗行为,以及人工智能驱动的欺诈行为。美国国防部、情报界和执法机构将成为AI的主要采用者,将AI应用于武器系统、指挥与控制以及智能领域。第五,就地方政府而言,美国各州和城市可能会采取有针对性的监管行动,比如像加利福尼亚这样的大州们可能会通过一项重要的AI法律,从而大幅改变美国的监管环境。第六,就科技巨头而言,私营科技公司将各自推进负责任的AI计划,为客户服务,避免政府采取更严厉的行动。最后,就全球监管环境而言,美国与其他国家和地区的贸易冲突会造成全球监管环境破碎化,欧盟的《人工智能法案》可能会影响其他主要国家,使美国的领导地位受挫。美国很可能在全球范围内推进其AI原则和自愿商业承诺,以影响国际规则。这将导致亚马逊、苹果、谷歌、Meta、微软和英伟达等科技巨头可能会面临世界各地的多种AI制度的挑战。美国与中国日益激烈的竞争也可能会为AI监管工作蒙上阴影,“不要落后于中国”的争论将不断升级。对先进图形处理器(GPU)等AI相关技术的出口和投资的管制可能会随着时间的推移而扩大和延伸,如云计算、量子技术等。



比尔·怀曼(Bill Whyman):美国战略与国际研究中心战略技术项目非常驻高级顾问,任亚马逊网络服务高级经理,曾任白宫国家安全委员会和国家经济委员会国际经济主任,并曾在白宫科技政策办公室和美国贸易代表办公室任职。


原文链接:https://www.csis.org/blogs/strategic-technologies-blog/ai-regulation-coming-what-likely-outcome#:~:text=It%20would%20create%20a%20new,have%20more%20freedom%20and%20resources.


关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

文章检索:周韫斐

编译:朱奕霏、杨雨虹

审核:何嘉钰

排版:赵杨博

终审:梁正、鲁俊群