编者按:谷歌、微软、OpenAI和Anthropic发布了以下联合公告,建立了前沿模型论坛。

Anthropic、谷歌、微软和OpenAI宣布成立前沿模型论坛,这是一个新的行业机构,专注于确保前沿人工智能模型的安全和负责任的发展。前沿模型论坛将利用其成员公司的技术和运营专业知识,使整个人工智能生态系统受益,例如通过推进技术评估和基准,以及开发一个公共解决方案图书馆,以支持行业最佳实践和标准。

  1. 推进人工智能安全研究,以促进前沿模型的负责任开发,最大限度地降低风险,并对能力和安全进行独立、标准化的评估。

  2. 确定负责任地开发和部署前沿模型的最佳做法,帮助公众了解该技术的性质、能力、局限性和影响。

  3. 与决策者、学者、民间社会和公司合作,分享有关信任和安全风险的知识。

  4. 支持开发有助于应对社会最大挑战的应用程序,如减缓和适应气候变化、早期癌症检测和预防以及应对网络威胁。

会员标准

该论坛将前沿模型定义为大型机器学习模型,这些模型超出了目前最先进的现有模型中的能力,并且可以执行各种任务。

会员资格向以下组织开放:

  • 开发和部署前沿模型(由论坛定义)。
  • 表现出对前沿模型安全的坚定承诺,包括通过技术和机构方法。
  • 愿意为推进论坛的努力做出贡献,包括参与联合倡议和支持倡议的发展和运作。

论坛欢迎符合这些标准的组织加入这一努力,并合作确保前沿人工智能模型的安全和负责任的发展。

前沿模型论坛将做什么

政府和行业都同意,虽然人工智能为造福世界提供了巨大的希望,但需要适当的护栏来减轻风险。美国和英国政府、欧盟、经合组织、七国集团(通过广岛人工智能进程)和其他国家已经为这些努力做出了重要贡献。

为了在这些努力的基础上再接再厉,需要在安全标准和评估方面开展进一步工作,以确保负责任地开发和部署前沿人工智能模型。该论坛将成为关于人工智能安全和责任的跨组织讨论和行动的载体。

论坛将在未来一年重点关注三个关键领域,以支持前沿人工智能模型的安全和负责任的发展:

确定最佳实践:促进行业、政府、民间社会和学术界之间的知识共享和最佳实践,重点关注安全标准和安全实践,以减轻广泛的潜在风险。

推进人工智能安全研究:通过确定人工智能安全最重要的开放式研究问题来支持人工智能安全生态系统。论坛将协调研究,在对抗性稳健性、机械可解释性、可扩展的监督、独立研究访问、紧急行为和异常检测等领域推进这些努力。最初将重点关注开发和共享前沿人工智能模型技术评估和基准的公共图书馆。

促进公司和政府之间的信息共享:建立可信、安全的机制,在公司、政府和相关利益相关者之间共享有关人工智能安全和风险的信息。论坛将遵循从网络安全等领域进行负责任披露的最佳做法。

谷歌和Alphabet全球事务总裁Kent Walker表示:“我们很高兴能与其他领先公司合作,分享技术专业知识,以促进负责任的人工智能创新。我们都需要共同努力,确保人工智能惠及所有人。”

微软副主席兼总裁Brad Smith表示:“创造人工智能技术的公司有责任确保其安全、有保障,并保持在人类控制之下。这项倡议是将科技部门团结起来,负责任地推进人工智能并应对挑战,使其造福全人类的重要一步。”

OpenAI全球事务副总裁Anna Makanju说:“先进的人工智能技术具有极大地造福社会的潜力,实现这一潜力的能力需要监督和治理。至关重要的是,人工智能公司——特别是那些致力于最强大模型的公司——在共同点上保持一致,并推进深思熟虑和适应性强的安全实践,以确保强大的人工智能工具获得尽可能广泛的利益。这是紧急的工作,这个论坛处于良好的位置,可以迅速采取行动,推进人工智能安全的状态。”

Anthropic首席执行官Dario Amodei说:“Anthropic认为,人工智能有潜力从根本上改变世界的运作方式。我们很高兴能与行业、民间社会、政府和学术界合作,促进安全和负责任的技术发展。前沿模型论坛将在协调最佳实践和分享前沿人工智能安全研究方面发挥至关重要的作用。”

前沿模型论坛将如何运作

在未来几个月,前沿示范论坛将成立一个咨询委员会,以帮助指导其战略和优先事项,代表不同的背景和观点。

创始公司还将与工作组和执行董事会建立关键的体制安排,包括章程、治理和资金,以领导这些努力。我们计划在未来几周内与民间社会和政府就论坛的设计以及有意义的合作方式进行磋商。

前沿模式论坛欢迎有机会帮助支持和支持现有的政府和多边倡议,如G7广岛进程、经合组织在人工智能风险、标准和社会影响方面的工作,以及美国-欧盟贸易和技术理事会。

论坛还将寻求在其每个工作流程中现有行业、民间社会和研究工作的宝贵工作的基础上再接再厉。人工智能伙伴关系和MLCommons等倡议继续在整个人工智能社区做出重要贡献,论坛将探索如何与这些和其他有价值的多利益攸关方努力合作和支持。

内容中包含的图片若涉及版权问题,请及时与我们联系删除