7月23日,美国司法部、美国联邦贸易委员会、欧盟委员会、英国竞争和市场管理局发布了《关于生成式人工智能基础模型和人工智能产品竞争的联合声明》(以下简称“联合声明”),强调了公平、开放和竞争性市场在开发和部署生成式人工智能方面的重要性。
美国司法部、美国联邦贸易委员会、欧盟委员会和英国竞争与市场管理局在声明中强调了公平、开放和竞争性市场在开发和部署生成式人工智能(Generative AI)方面的重要性。这表明各方希望确保AI技术的发展能够通过公平竞争来实现,从而释放其潜力并保护消费者利益。近期,美国对AI巨头如微软、OpenAI和英伟达展开了反垄断调查,显示出美国政府加强AI行业管控的决心。这些调查反映了监管机构对于防止大科技公司利用其市场主导地位进行不公平竞争的担忧。美英欧监管机构签署的联合声明旨在通过公平公开的竞争释放人工智能技术所能提供的机遇,并制定了维护公平竞争和保护消费者的共同原则。这一声明不仅展示了各国在AI治理上的合作意愿,也体现了他们共同应对AI市场垄断问题的决心。联合声明还指出,通过制定和遵守共同的原则,各国可以在促进AI技术发展的同时,有效防范其带来的风险,确保AI的公平与安全。这意味着除了市场竞争外,各方还关注AI技术可能带来的社会、经济和伦理问题。尽管美欧在AI监管上存在一定的矛盾和分歧,但双方都在努力寻求协调与合作。例如,欧盟希望通过制定标准来强调技术自主和价值观,并抢占全球人工智能企业的监管先机;而美国则更多依赖市场机制来推动高新技术的研发和融资。监管机构指出,公平交易、互操作性和可选择性是保护人工智能领域公平竞争的三大原则。如果大型科技公司通过市场力量巩固或扩展其在AI领域的垄断地位,将削弱这些原则,从而损害消费者的利益和市场的多样性。生成式人工智能基础模型和相关产品的发展需要一个开放和竞争性的市场环境。如果让少数几家企业主导整个市场,可能会限制创新,并使市场朝着更大规模和集中化发展,这不利于技术和市场的健康发展。人工智能的发展容易产生数据、资金和技术壁垒,形成垄断经营。这种垄断不仅会阻碍新进入者的竞争,还可能降低整个行业的创新能力。欧盟和美国都致力于加强对人工智能的控制,以维护国家安全和经济秩序。如果AI市场被少数几家企业垄断,可能会导致全球范围内的经济失衡和不公平竞争。学术界和反垄断监管部门认为算法可能通过改变某些市场条件促进企业间的合谋,从而降低市场的竞争程度。这种合谋行为会进一步加剧市场垄断,影响市场的公平性和透明度。欧盟希望通过制定标准来强调技术自主和欧盟价值观,并试图抢占对全球人工智能企业的监管先机。如果AI市场被少数几家企业垄断,将削弱这一努力,影响欧洲在全球AI治理中的地位。三方一致认为人工智能(包括基础模型)具有巨大的变革潜力,在最佳状态下,这些技术可以实质性地造福公民,促进创新和推动经济增长,生成式AI近年来迅速发展,可能成为过去几十年中最重要的技术发展之一。鉴于AI发展的速度和动态性,在从数字市场的经验中吸取教训的基础上,三方承诺在这些风险成为根深蒂固或不可逆转的危害之前,利用现有的权力来应对这些风险。三方认识到AI带来的新服务的巨大潜在利益,但认为需要时刻警惕潜在风险。评估这些风险的关键在于关注新兴AI商业模式如何驱动激励机制,最终影响企业行为。关键投入的集中控制:专用芯片、大规模计算能力、数据和专业技术是开发基础模型的关键要素。
在AI相关市场中巩固或扩展行业垄断地位:基础模型的出现正值现有数字巨头已经享有强大累积优势之际,大公司可能在与AI相关的多个层次上具有实质性市场力量。
关键参与者之间的安排可能放大风险:目前,围绕生成式AI的开发,公司之间的合作、金融投资和其他联系已广泛存在。科技巨头之间合作和投资会被用来削弱其他中小企业,形成共谋垄断,并以牺牲公众利益为代价,操控市场结果。
三方表示一些共同原则通常有助于促进竞争和推动创新:公平交易:具有一定市场力量的公司采取排他性竞争策略时,它们就可以加深自己的壁垒,阻止第三方的投资和创新,最终破坏竞争。AI行业的生态系统中公司越是公平交易,生态系统就会越好。互操作性:AI产品和服务及其投入之间的互操作性越强,竞争和创新就越大。三方将审查任何关于互操作性需要牺牲隐私和安全的主张。选择权:在AI生态系统中,企业和消费者都可以从多样化产品和商业模式中受益。三方将审查企业可能的锁定机制,防止其他企业或个人无法寻求或选择其他替代选项。
三方将审查现有企业和初创企业之间的投资和合作,以确保这些协议不会规避合并执法或赋予现有企业不当的影响力或控制权。
公司若以欺骗或不公平的方式使用消费者数据来训练其模型,可能会损害人们的隐私、安全和自主权。公司使用商业客户的数据来训练其模型也可能暴露竞争敏感信息。消费者在购买或使用产品和服务时,有权了解AI应用的相关情况。1.美国科技巨头垄断,但国家安全考虑限制反垄断措施
全球视角下,美国科技巨头的垄断与国家安全限制反垄断措施之间存在复杂的关系。这种关系主要体现在以下几个方面:国家安全考量:美国在人工智能(AI)领域的治理模式受到国家安全的显著影响。尽管美国对科技巨头进行了反垄断调查和立法,但出于国家安全的考虑,对于涉及军民两用技术的先进企业,美国往往无法采取严格的反垄断措施。
联邦与州层面的规则差异:美国的反垄断监管具有联邦和州双重结构的特点。联邦层面的规则更多是具体规定的差别,而州层面则有更大的自主权。例如,加州在人工智能的监管和使用方面走在前列,但整体上行业自治的立法基调不会相差甚远。这种分散式的政策制定模式使得不同州可以根据自身情况采取不同的监管措施。
跨国公司属性:美国科技公司不仅关注国内市场,更重要的是它们作为跨国公司拓展海外市场。因此,这些公司在面对严格的国内监管时,往往更倾向于保持现有的市场主导地位,以避免过大的市场分割对其国际业务造成不利影响。
创新与监管平衡:美国政府在推动反垄断行动的同时,也必须平衡技术创新的需求。一些学者指出,过于严格的反垄断法规可能会阻碍创新生态系统的发展,并影响投资者对创新公司的兴趣。此外,美国最高法院正在审理苹果公司的反垄断纠纷,这可能会影响科技巨头的投资决策。
国际竞争压力:美国在人工智能领域面临来自欧盟、中国等国家的竞争压力。欧盟倾向于集中式治理模式,强调伦理优先,而美国则坚持创新优先导向,尽力维护其在全球AI领域的领导地位。
行政命令与监管机构的作用:美国总统拜登签署的第14036号行政命令指导行政部门对科技巨头的并购、数据收集等行为施加更严密的监视。同时,美国联邦贸易委员会(FTC)和联邦通信委员会(FCC)等机构也在加强对科技巨头的监管力度,以确保市场竞争公平。
2.欧盟需要制定规则建立单一市场,推进人工智能产业统一监管框架
在全球视角下,欧盟通过制定一系列规则和法律框架来建立单一市场并推进人工智能产业的统一监管。
欧盟在2024年3月正式通过了全球首部全面监管人工智能的法律——《人工智能法案》(AI法案),这是世界上第一部针对AI进行全面监管的法律。该法案旨在确保人工智能技术的发展和应用能够遵循公平、透明和可信的原则,并保护基本权利、民主、法治和环境可持续性免受高风险人工智能的影响。《人工智能法案》采用风险导向的方法,将人工智能系统分为四类:不可接受的风险、高风险、有限风险以及极低风险。针对每一类AI系统,《AI法案》采取了不同的监管措施,以确保其开发和部署符合欧盟的价值观和基本权利。欧盟通过《人工智能法案》建立了世界上第一个全面的人工智能监管框架,该框架适用于在欧盟境内运营的所有公共和私营实体。这不仅有助于防止成员国采取可能导致市场碎片化的单边行为,还通过最大程度的协调削弱了成员国在该领域采取行动的能力,迫使其取消与该法冲突的国内法。欧盟的主要目标之一是通过为在欧盟开发和使用可信AI系统创造条件,确保单一市场的正常运作。这一目标基于《欧盟运作条约》第114条,强调以相似性促进欧盟统一内部市场的运作。此外,欧盟委员会发布《2024年单一市场和竞争力报告》,进一步强调单一市场的重要性。欧盟委员会高度重视人工智能的战略发展,并通过资金、基础设施和统一的法规框架提供支持。例如,《人工智能法案》旨在通过设定安全、透明度和问责制的标准,促进创新并培养对人工智能的信任。同时,欧盟也致力于平衡创新与负责任的人类中心人工智能部署之间的关系,考虑透明度和问责制。欧盟的《人工智能法案》不仅对欧盟内部产生深远影响,也对全球人工智能治理格局产生了重大影响。欧盟希望通过自己的规则引领全球人工智能竞赛,并在全球范围内树立一个供世界参照的蓝本。美欧英联合声明反对AI市场垄断的具体内容主要集中在以下几个方面:声明指出,公平、开放和竞争性的市场环境对于开发和部署生成式人工智能(AI)至关重要。这有助于促进创新和经济增长。声明认为当前是人工智能技术的一个重要拐点,这些技术具有巨大的变革潜力,能够实质性地造福公民并推动经济增长。因此,需要通过公平竞争来释放这些技术的潜力。声明还制定了保护消费者和促进创新的竞争原则,以确保在AI领域中的公平竞争。由美国司法部、美国联邦贸易委员会、欧盟委员会和英国竞争与市场管理局共同签署的这份声明,展示了各方在防止AI市场垄断方面的共同立场和努力。声明中提到,AI市场的高成本可能导致垄断,并阻碍未来对人工智能研究和开发的投资。因此,需要采取措施防止大科技公司利用其权力扩张新领域并维持其在现有市场的垄断地位。总体而言,美欧英联合声明旨在通过一系列原则和措施,确保生成式AI的发展能够在公平、开放和竞争性的市场环境中进行,从而最大化其对社会和经济的积极影响,同时防止市场垄断现象的发生。清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢