- 简介随着人工智能(AI)工具在各种实际应用中的使用越来越多,对监管这些工具的兴趣也越来越大。为此,世界各国引入了几个监管框架。例如,欧盟最近通过了AI法案,白宫发布了一项有关安全、可靠和值得信赖的AI的行政命令,白宫科技政策办公室发布了AI权利法案蓝图(AI BoR)。许多这些框架强调需要审计和提高AI工具的可信度,强调安全、隐私、可解释性、公平性和人类备选方案的重要性。尽管这些监管框架强调了执行的必要性,但实践者通常缺乏有关实施这些框架的详细指导。此外,关于实现每个方面的广泛研究通常被埋在技术论文中,这对于实践者来说很难理解。在本文中,我们通过提供现有文献相关的易于理解的概述来解决这个缺陷。我们提供了最先进文献的易于理解的总结,并强调监管指南和现有AI研究之间存在的各种差距,包括在操作过程中出现的权衡。我们希望这项工作不仅成为对于想要了解实施AI BoR蓝图中监管指南的实践者的起点,而且为研究人员提供了关键的开放性问题和监管与最先进AI研究之间的差距列表。最后,我们指出这是一份工作论文,我们欢迎根据本文介绍的目的提供反馈。
- 图表
- 解决问题本文旨在提供一个易于理解的概述,介绍现有文献与操作监管原则相关的内容,以帮助AI从业人员更好地实施监管框架。
- 关键思路本文提供了现有文献的易于理解的总结,重点介绍了操作监管原则的各个方面,包括安全性、隐私、可解释性、公平性和人类回退选项等,并强调了实施监管框架时存在的各种权衡和问题。
- 其它亮点本文提供了易于理解的总结,强调了实施监管框架时存在的问题和权衡,为从业人员提供了指导。此外,本文还列出了一些关键的开放问题和监管指南与现有AI研究之间的差距。
- 最近的相关研究包括欧盟通过的AI法案、白宫发布的关于安全、可靠和值得信赖的AI的行政命令以及白宫科技政策办公室发布的AI权利法案草案。
沙发等你来抢
去评论
评论
沙发等你来抢