On the Quest for Effectiveness in Human Oversight: Interdisciplinary Perspectives

2024年04月05日
  • 简介
    人类监督目前被讨论为防范高风险AI应用负面影响的潜在保障。这促使我们对突出的有效或有意义的人类监督的角色和必要条件进行了批判性的审查。本文通过综合心理学、法律、哲学和技术领域的见解,调查了有效的人类监督。基于人类监督的主要目标是风险缓解的主张,我们提出了人类监督有效性的可行理解:为了使人类监督有效,人类监督者必须具有(a)关于系统及其影响的足够因果力,(b)适当的认识访问相关方面的情况,(c)控制自己的行为,和(d)适合他们的角色意图。此外,我们认为这等同于说,只有当人类监督者具有道德责任和适当的意图时,他们才是有效的。在此背景下,我们提出了在追求实际适用性时促进和抑制有效人类监督的因素。我们讨论了三个领域的因素,即系统的技术设计,人类监督者的个体因素以及监督者所处的环境情况。最后,本文审查了欧洲联盟即将推出的AI法案,特别是关于人类监督的第14条,作为一个示范性的监管框架,在其中研究我们对有效人类监督的理解的实用性。通过分析欧洲AI法案提案的规定和影响,我们指出该提案在多大程度上与我们关于有效人类监督的分析相一致,以及它如何通过我们对有效人类监督的概念理解得到丰富。
  • 图表
  • 解决问题
    本文旨在探讨有效的人类监督对于高风险人工智能应用的必要性和条件,并提出了一种可行的有效人类监督的理解。
  • 关键思路
    为了使人类监督有效,监督者必须具有足够的因果能力、适当的认知访问、对自己行为的自我控制和适当的意图。此外,本文认为,只有具有道德责任和适当意图的人类监督者才是有效的。
  • 其它亮点
    本文综合了心理学、法律、哲学和技术领域的见解,提出了有效人类监督的概念。文章还讨论了在实践应用中实现有效人类监督的因素,并对欧盟的AI法案进行了分析。
  • 相关研究
    最近的相关研究主要集中在人工智能监管和道德责任方面,如《人工智能道德原则》和《欧盟人工智能法案》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论