- 简介一些司法管辖区开始对前沿人工智能系统进行监管,即能够匹配或超过最先进系统能力的通用人工智能系统。为了降低这些系统的风险,监管机构可能要求前沿人工智能开发者采取安全措施。这些要求可以制定为高层次原则(例如,“人工智能系统应安全可靠”)或具体规则(例如,“人工智能系统必须按照……制定的危险模型能力评估方案进行评估”)。这种监管方法被称为“基于原则”的和“基于规则”的监管,它们具有互补的优点和缺点。虽然具体规则提供更多确定性且更易于执行,但它们可能很快过时并导致程序性的检查。相反,高层次原则提供的确定性较少,执行成本较高,但在监管机构不确定哪种行为最有利于实现特定监管目标的情况下,它们更具适应性和适用性。然而,基于规则和基于原则的监管并不是二元选择。政策制定者必须在它们之间选择一个点,认识到适当的具体性水平可能因要求而异,并随时间变化。我们建议政策制定者最初(1)要求遵守安全前沿人工智能开发和部署的高层次原则,(2)确保监管机构密切监督开发者如何遵守这些原则,以及(3)紧急建立监管能力。随着时间的推移,这种方法可能会变得更加基于规则。我们的建议基于许多假设,包括(A)前沿人工智能系统的风险尚不明确且正在快速发展,(B)许多安全实践仍处于萌芽阶段,以及(C)前沿人工智能开发者最适合创新安全实践。
- 图表
- 解决问题如何规范边缘人工智能系统的开发和部署,以降低风险?
- 关键思路建议政策制定者采用高级原则,确保监管者密切监督开发者如何遵守这些原则,并紧急建立监管能力。随着时间的推移,这种方法可能会变得更加基于规则。
- 其它亮点建议政策制定者应该采取初步的高级原则,监管者应密切关注开发者如何遵守这些原则,紧急建立监管能力。
- 无
沙发等你来抢
去评论
评论
沙发等你来抢