- 简介欧盟和美国的AI法规和政策对可解释性AI(XAI)作为符合要求的AI系统的核心交付成果提出了谨慎的解释。然而,从技术角度来看,可解释性AI仍然是一个难以捉摸和复杂的目标,即使是最先进的方法也经常出现错误、误导和不完整的解释。 “可解释性”有多重含义,经常被交替使用,而且有更多的XAI方法,其中没有一个呈现出明显的优势。事实上,每种XAI方法都有多种失效模式,需要应用特定的开发和持续评估。在本文中,我们从解释权的角度分析了美国和欧盟的立法和政策发展,如《关于安全、安全和可信的人工智能开发和使用的行政命令》、《人工智能法案》、《人工智能责任指令》和《通用数据保护条例》。我们认为,这些AI法规和当前的市场条件威胁到有效的AI治理和安全,因为值得信赖、可问责和透明的AI的目标与AI运营商提供有意义的解释的可疑能力密切相关。除非政府通过清晰的立法和政策声明明确解决可解释性问题,并考虑到技术现实,否则AI治理将成为一个空洞的“打勾”练习,科学标准将被法律门槛所取代,在XAI中只提供虚假的安全感。
- 图表
- 解决问题本论文旨在分析美国和欧盟的AI法规和政策,并从解释性AI(XAI)的角度探讨其合规性和可行性。
- 关键思路本论文认为,当前的AI法规和市场情况对有效的AI治理和安全构成威胁,因为可信、可问责和透明的AI目标与AI操作者提供有意义的解释的能力存在疑问。作者建议政府应通过明确的立法和政策声明来解决可解释性问题,以确保AI治理不会成为一个空洞的“打勾”练习,提供虚假的XAI安全感。
- 其它亮点本论文分析了美国和欧盟的AI法规和政策,如关于安全、安全和可信的AI发展和使用的行政命令、AI法案、AI责任指令和通用数据保护条例(GDPR),从右向解释角度进行了分析。作者指出,解释性AI(XAI)是一个复杂的问题,没有一种方法能够提供清晰的优势。本文还探讨了XAI方法的多种失效模式,以及需要应用特定开发和持续评估的问题。
- 在相关研究方面,最近的研究集中在解释性AI和AI治理方面。相关论文包括:《可解释的人工智能:从黑盒到可解释的模型》、《从可解释性到可操作性:深度学习的可解释性方法》、《可解释性人工智能的挑战和前景》等。
沙发等你来抢
去评论
评论
沙发等你来抢