前言:美对华限制开源大模型对华出口







在全球范围内,人工智能(AI)技术的快速发展引发了广泛关注与讨论,特别是关于如何监管这一新兴技术以保护消费者权益并促进技术健康发展的问题。2024年5月21日,欧盟的人工智能法得到了正式批准,这标志着全球范围内对人工智能监管的重大进展。与此同时,在大西洋彼岸,美国的科罗拉多州也取得了里程碑式的进展。州长Jared Polis于5月17日签署了由科罗拉多众议院(the General Assembly of the State of Colorado)颁布的SB205法案。该法案核心内容是在《科罗拉多州修订法规》(Colorado Revised Statutes)加入了有关于人工智能系统的使用规定,主要关注与人工智能交互中的消费者保护。这不仅是科罗拉多州,也是美国首个在州一级对人工智能及其应用提出具体要求的综合性监管立法。




PART1 科罗拉多人工智能法案的主要内容及特点
1.科罗拉多人工智能法案的主要内容及特点


Part2 法案通过可能带来的影响


     1.美国人工智能立法现状
     2.SB205法案对美国全国政策的潜在影响与哲学分歧

     3.法案通过在国际层面的影响


Part3






美国人工智能监管立法的前景展望


Part1 科罗拉多人工智能法案的主要内容


SB205法案本质上是一项专注于防止算法歧视的人工智能消费者保护法。该法案借鉴了欧盟人工智能法的许多理念,包括对“高风险人工智能系统”的特别规制。这些所谓的高风险系统是指那些在教育、就业、金融服务、政府服务、医疗、住房、保险或法律服务等关键领域进行重大决策影响的人工智能系统。其中法案规定有一些条款在2026年2月1日起生效,包括高风险人工智能系统的部署者必须实施风险管理政策和程序,以识别、记录和减轻算法歧视的风险。此外,部署者还需要完成高风险人工智能系统的影响评估,并定期进行更新和监测。

该法案作为《科罗拉多州修订法规》第六编第一条的增加内容可分为三部分,包含法案定义、执行规则以及实行时的安全条款,具体内容概括如下

01


第一部分《科罗拉多州修订法规》的增加部分。

包含对法规中“人工智能”、“高风险人工智能”、“算法歧视”等重要名词的定义。主要涉及人工智能系统的开发与部署,强调避免算法歧视的重要性。开发者必须提供文件证明他们的算法设计中采取了防歧视措施,而部署者则需建立相应的风险管理政策和程序。此外,法规要求向消费者明确披露使用的人工智能系统的相关信息,增强透明度。总检察长负责执行这些规定,并有权制定必要的规则以确保法规得到妥善实施。

根据科罗拉多州参议院法案24-205的提供内容,以下是针对人工智能开发者、部署者和消费者的监管和保护措施的总结表格:


02


第二部分:科罗拉多州对人工智能相关的欺骗性贸易行为的定义

明确界定了欺骗性贸易行为的范围。根据《科罗拉多州修订法规》的增加内容,任何在业务、职业或工作中违反特定法律条款的行为均被视为欺骗性行为。

03


第三部分:紧急安全条款

确保立法措施立即执行以维护公共和平、健康和安全。该条款强调法案对于资助州政府部门和机构的运营的必须性,以保障公共服务的持续提供。

值得注意的是,条款明确指出,在与联邦机构相关的行为或事务中,任何不符合法定标准的行为,包括未经授权的行为和未经许可的活动,都属于非法行为。法案不仅适用于联邦机构,还适用于所有其他实体,包括州和地方政府机构以及私人企业。但增加内容的所有条款均不适用于包含美国商务部、美国国防部或美国国家航天局等政府部分及其获得的任何人工智能系统。

04


法案特点

科罗拉多州的SB205法案通过精确界定及对高风险人工智能系统的细致规范,旨在防止AI技术中的算法歧视,并强化了对消费者权益的保护。这部法案从以下几个核心方面构建了一个全面的监管框架:

05


定义及职责:

法案提供了“人工智能”、“高风险人工智能”和“算法歧视”等关键术语的明确定义,为整个法律提供了清晰的术语基础。开发者和部署者必须遵循特定的程序和政策,以确保算法的公正性和透明度,特别是在关键决策领域如金融和医疗等。

06


透明度与责任:

法规要求AI系统的使用者向消费者清楚地公开其使用的AI系统的具体信息,包括系统的功能、限制和可能的风险。总检察长监管这些要求的实施,确保所有规定都得到妥善执行。
监管措施:

法案中还包括对欺骗性贸易行为的界定,这有助于打击利用AI执行不正当商业行为的情况。同时紧急安全条款保证了法案的立即执行,确保了公共安全和服务的连续性。

此法案的实施标志着科罗拉多州在全美范围内在AI法律领域的领导地位,提供了一个可能被其他州参考的立法范例,特别是在高风险AI应用的规制上。这种立法措施的推广可能会推动全国范围内AI技术使用的法律和道德标准的统一。


Part2 法案通过可能带来的影响


01


美国人工智能立法现状

关于人工智能监管的立法问题,美国国会已经举行了多次与其的听证会,传唤了包括OpenAI的CEO山姆·奥尔特曼(Sam Altman)在内的多位行业领袖。众议院金融服务委员会成员、民主党议员玛克辛·沃特斯(Maxine Waters)强调了人工智能对美国金融安全的潜在威胁,提议召开听证会讨论AI对金融行业的影响。民主党参议员加里·彼得斯(Gary Peters)和艾德·马基(Ed Markey)则向政府问责办公室(GAO)提出请求,要求对生成式AI的潜在危害进行“详细的技术评估”,以便制定减轻风险的措施。

在政党立场上,共和党倾向于轻触式监管,强调不应通过过度监管损害美国的产业竞争力和国家安全。他们支持企业自愿遵守的指南和自我承诺,担心严格监管会妨碍创新并使美国在全球AI竞争中处于不利地位。

而以参议员沃伦、桑德斯以及拜登为代表的中左翼民主党政客更倾向于实施严格的监管措施,主张建立强大的联邦机构来专门监管人工智能,并援引《国防生产法》(Defense Production Act)强行给美国企业施加包括红队测试结果在内的信息报送义务,传递了对大科技公司的强监管信号。

而美国目前的人工智能监管政策架构主要以总统的宏观政策和蓝图为指导,各联邦部门则根据自身领域内的需求审查人工智能技术的潜在风险并制定相应的措施和法规。拜登总统在2022年10月4日提出的《人工智能权利法案蓝图》是最新且最详细的框架,它为人工智能系统设立了五大基本原则:系统的安全与有效性、防止算法歧视、数据隐私保护、提供通知与解释、以及确保人工替代方案与后备措施的存在。在这一《蓝图》的指导下,白宫还采取了一系列具体措施来推动监管要求的落实。例如,2023年5月4日,白宫宣布要求包括OpenAI和微软在内的公司在DEFCON31黑客大会上公开评估其大模型,检查这些模型是否符合《蓝图》的规定。

此外,各联邦部门也开始根据《蓝图》的指导原则制定具体的人工智能监管政策。例如,劳工部制定了《公正的人工智能行动手册》,旨在避免AI技术在招聘过程中对求职者产生基于种族、年龄、性别等特征的偏见。消费者金融保护局针对AI模型的不透明性发布指南,明确AI产生的决策不能成为金融机构拒绝贷款的唯一依据。在所有联邦部门中,商务部及其下属的国家标准与技术研究院(NIST)和联邦贸易委员会(FTC)在AI监管方面尤为活跃。NIST自2021年起开始收集关于AI监管的意见,并于2023年1月发布了《人工智能风险管理框架》。虽然该框架非强制性,但为AI企业提供了风险评估的详细指南。FTC则在2022年4月发布了《联邦贸易委员会消费者保护指南》,强调AI应当透明、可解释、公平且符合经验,促进问责制。在联邦层面,尽管立法进程还处于初期阶段,但已有多项行动展开。例如,民主党众议员刘云平(Ted Lieu)提交的“国家人工智能委员会法案”旨在建立一个由20人组成的委员会,由两党各提名十人,主要任务是对人工智能监管立法的迫切性进行分级,并指导相关立法。参议院多数党领袖查克·舒默(Chuck Schumer)推出了“人工智能安全创新”框架,包含五大核心支柱:安全、问责制、基于民主价值观、向用户清晰解释及创新。舒默通过在国会组织简报会来推动这一框架,旨在加快国会在人工智能领域的立法进程。在美国政府对于人工智能的监管立法的积极推进下,2022年,共有17个州引入了关于人工智能的法案。科罗拉多州、伊利诺伊州和佛蒙特州等州不仅提出了相关法案,还特别成立了工作组或委员会,负责研究人工智能并提供报告与建议。这些州的立法重点关注了包括在大型AI模型中的歧视与偏见问题、模型的透明度以及人工智能在生物识别技术中的应用。这些政策和措施的制定和实施,表明美国正在努力构建一个综合性的AI监管框架,旨在平衡创新推动与风险控制。

02


SB205法案对美国全国政策的潜在影响与哲学分歧

美国是否应该采用与欧盟相似的全面人工智能监管立法是一个复杂且引发广泛讨论的问题。虽然参议院多数党领袖查克·舒默积极提出了关于全面监管人工智能的框架,并通过举办专题论坛等新方法加速立法进程,但北达科他州立大学网络安全教育与研究所副所长杰里米·斯特劳布批评了全面监管的观点,他认为这种监管方式从法律角度看可能限制程序员的自由表达权,从市场角度看则可能提高新兴企业的入场门槛,加剧行业内的垄断现象。他还指出,全面监管往往聚焦于技术的发展而非其应用,可能会抑制行业内的创新。

此外,科技行业对州级人工智能监管法案表达了明显的反对意见,主要因为这可能导致法律环境的复杂性和不一致性。批评者指出,如数据隐私法在不同州的多样化已经造成了“法律拼凑”的问题,对于资源较少的小型企业而言,不同州的法律差异构成了巨大的挑战。他们认为,人工智能作为一项快速发展的新技术,过早或过于严格的立法可能会限制技术的创新和进步。

尽管科罗拉多州的人工智能监管法案在州级实现了突破,州长Jared Polis也表达了对科技行业担忧的理解,他强调法案中一些核心条款将延迟到2026年生效,并依赖于一个特别工作组的研究结果来决定是否需要对法案进行修正。

科罗拉多州的人工智能监管法案作为一个先行实施的模型,可能为其他州乃至联邦层面提供一个实验性案例,用以评估监管措施的实际效果和潜在问题。这种州级监管的成功实施可能不仅促进全国性讨论关于如何监管人工智能,而且还可能提供实际数据支持联邦立法者制定更严格的监管政策。尤其是在民主党控制的州显示出积极结果后,这可能进一步推动联邦层面的支持。然而,如果监管带来负面影响,如抑制创新或损害经济,这些实例可能被用作减轻联邦监管力度的论据。此外,州级监管立法的推广可能加深地方与联邦机构在AI技术监管方面的合作,通过政策协调和最佳实践的共享,有效应对跨州或国际技术挑战。然而,此举也可能导致“逐州监管”和法律碎片化,给跨州运营的公司,尤其是资源有限的中小企业带来合规成本的显著增加。科罗拉多州向欧盟人工智能法看齐的做法,如果被其他州采纳,可能会限制技术创新和进步,增加市场的入门门槛,并加剧行业内的垄断现象,从而对美国人工智能产业的发展和联邦统一立法造成潜在的负面影响。

03


法案通过在国际层面的影响

科罗拉多州法案24-205的通过主要影响该州内部的人工智能系统的开发与部署。对于中国或其他国家的直接影响相对有限,因为法案的管辖范围局限于科罗拉多州。然而,这项法案在国际层面上可能具有以下几方面的间接影响:

-全球标准设定:科罗拉多州的这一立法可能被视为处理人工智能风险的一个模范,可能会影响其他国家和地区在制定相关法律时的考虑。全球各地的政策制定者可能会参考科罗拉多州的规定,形成类似的法律框架,尤其针对人工智能系统的透明度和算法歧视的管理。

-对中美科技合作的潜在影响:随着美国各州可能逐步加强对人工智能系统的监管,中国及其科技企业在与美国合作时可能需要适应这些变化。这包括合规性增强以及在技术和数据使用上的限制。

-启发中国的法规发展:中国正在积极发展人工智能技术并逐步构建相应的法规体系。科罗拉多州的这一法案可能为中国在构建或完善其人工智能法律框架提供借鉴,尤其是在确保技术公正和消费者权益保护。

-国际企业策略调整:国际上的企业,包括中国企业,若想在科罗拉多州运营或与该州的企业进行交易,需要确保其人工智能产品和服务符合当地的法律要求。这可能促使这些企业加强内部控制,以避免因违反外国法律而受到的负面影响。


Part3 美国人工智能监管立法的前景展望



美国人工智能监管立法面临的挑战和前景复杂多变。

首先,不同机构间监管框架的重叠和不一致降低了监管的清晰度。尽管白宫的《蓝图》和舒默的全面监管提案在一定程度上存在重叠,但美国至今未指定一个负责人工智能监管的联邦部门,导致“碎片化”管理模式,这不仅降低了政策的协调性,还可能引发内部摩擦和权力斗争。美国各州在人工智能立法上的差异进一步增加了复杂性,从而提高了企业的合规成本。


其次,美国监管进程的缓慢可能难以跟上人工智能技术的快速发展。尽管近期的政策和学术讨论活跃,但美国的官方文件多停留在宏观层面,缺乏详细的监管细节,难以为企业提供有效的合规指导。预计到2027年,人工智能市场的规模将显著增长,监管政策的滞后可能对技术发展产生制约作用。


科罗拉多州通过的人工智能监管立法具有标志性意义,可能会促使其他州加快立法进程,但这种州级的先行监管可能导致法律环境的碎片化,特别是对于跨州运营的中小企业,合规成本将显著增加。科罗拉多模仿欧盟人工智能法的做法,如果成为普遍趋势,可能会进一步复杂化美国的监管环境,影响人工智能产业的发展和联邦统一立法的形成。


主编丨刘典

编辑丨郭凌旭

排版|赵杨博

审核|梁正 鲁俊群


关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

内容中包含的图片若涉及版权问题,请及时与我们联系删除