- 简介在可解释人工智能(xAI)中,为神经网络推理提供可解释的解释仍然存在挑战。现有的方法,如Integrated Gradients,会产生噪声地图,而LIME虽然直观,但可能偏离模型的推理。我们介绍了一个框架,使用分层分割技术对卷积神经网络(CNN)进行忠实和可解释的解释。我们的方法构建了基于模型的分层分割,保持了模型的推理保真度,并允许人类中心和模型中心的分割。这种方法提供了多尺度的解释,有助于偏见识别和增强对神经网络决策制定的理解。实验表明,我们的框架xAiTrees提供了高度可解释和忠实的模型解释,不仅超越了传统的xAI方法,还为增强xAI可解释性的新方法提供了新的视角。代码位于:https://github.com/CarolMazini/reasoning_with_trees。
- 图表
- 解决问题提高可解释性人工智能中的神经网络推理解释问题。
- 关键思路xAiTrees框架使用分层分割技术为卷积神经网络提供忠实和可解释的解释。
- 其它亮点xAiTrees框架提供多尺度解释,帮助识别偏见并增强对神经网络决策制定的理解。
- 与传统的xAI方法相比,xAiTrees框架提供了更准确和可靠的解释。
沙发等你来抢
去评论
评论
沙发等你来抢