在发送给欧盟决策者的一篇论文中,包括GitHub、Hugging Face、Creative Commons等在内的一组公司正在鼓励在考虑最终确定《人工智能法案》时更多地支持不同人工智能模型的开源开发。EleutherAI、LAION和Open Future也共同签署了该文件。

他们在最终规则之前向欧洲议会提出的建议清单包括对人工智能组件的更明确定义,澄清了从事开源模型的业余爱好者和研究人员没有从人工智能的商业上受益,允许对人工智能项目进行有限的现实世界测试,并为不同的基础模型设定了比例要求。

Github高级政策经理Peter Cihon告诉The Verge,该论文的目标是为立法者提供支持人工智能发展的最佳方式的指导。他说,一旦其他政府发布他们的人工智能法律版本,公司就希望被听到。“当决策者用笔写论文时,我们希望他们能以欧盟为榜样。”

围绕人工智能的法规一直是许多政府的热门话题,欧盟是最早开始认真讨论提案的政府之一。但欧盟的《人工智能法案》被批评为对人工智能技术的定义过于宽泛,同时仍然过于狭隘地关注应用层。

两家公司在论文中写道:“《人工智能法案》有望在监管人工智能以应对风险的同时树立全球先例,同时鼓励创新。”“通过支持蓬勃发展的人工智能开放生态系统方法,监管为推进这一目标提供了重要机会。”

该法案旨在涵盖不同类型人工智能的规则,尽管大部分注意力都集中在拟议的法规如何管理生成人工智能上。欧洲议会于6月通过了一项政策草案。

一些生成人工智能模型的开发人员接受了共享模型访问权限的开源精神,并允许更大的人工智能社区玩弄它并实现信任。Stability AI发布了Stable Diffusion的开源版本,Meta有点像发布了其大型语言模型Llama 2作为开源版本。Meta不分享它从哪里获得训练数据,还限制了谁可以免费使用该模型,因此Llama 2在技术上不遵循开源标准。

开源倡导者认为,当人们不需要为访问模型付费时,人工智能开发效果会更好,并且模型的培训方式也更高。但它也给创建这些框架的公司带来了一些问题。由于害怕竞争和安全,OpenAI决定停止分享其围绕GPT的大部分研究。

发表该论文的公司表示,一些目前提出的影响模型被认为是高风险的,无论开发商是大是小,都可能不利于那些没有相当财务慷慨的人。例如,涉及第三方审计师“成本高昂,没有必要减轻与基础模型相关的风险。”

该小组还坚持认为,在开源库上共享人工智能工具不属于商业活动,因此这些不属于监管措施的范围。

这些公司表示,禁止在现实环境中测试人工智能模型的规则“将严重阻碍任何研究和开发”。他们说,开放式测试为改进功能提供了教训。目前,人工智能应用程序无法在封闭实验之外进行测试,以防止未经测试的产品出现法律问题。

可以预见的是,人工智能公司一直非常直言不讳地认为什么应该成为欧盟《人工智能法案》的一部分。OpenAI游说欧盟决策者反对关于生成人工智能的更严厉的规则,其一些建议使其成为该法案的最新版本。

内容中包含的图片若涉及版权问题,请及时与我们联系删除