- 简介“可解释人工智能”领域应运而生,以满足对更透明、可靠模型的日益增长的需求。然而,最近几篇文章对使用原始特征提供解释提出了争议,主张提供更易于用户理解的解释。为了解决这个问题,近年来出现了大量提出基于概念的可解释人工智能(C-XAI)方法的论文。然而,统一的分类和精确的领域定义仍然缺失。本文通过对C-XAI方法的全面审查来填补这一空白。我们定义和识别不同的概念和解释类型。我们提供了一个分类法,识别出九个类别,并提出了根据开发环境选择合适类别的指南。此外,我们报告了常见的评估策略,包括指标、人类评估和数据集的使用,旨在帮助未来方法的开发。我们相信,这项调查将为研究人员、实践者和领域专家理解和推进这一创新领域提供帮助。
- 图表
- 解决问题提供一种分类和指南,帮助开发人员选择适合的概念可解释人工智能方法,以提高透明度和可靠性。
- 关键思路提出了基于概念的可解释人工智能(C-XAI)方法,将解释分类为九种类型,并提供选择适当类别的指南。
- 其它亮点论文提供了常见的评估策略,包括指标、人类评估和数据集,并旨在帮助未来方法的开发。
- 最近的相关研究包括“Towards a Rigorous Science of Interpretable Machine Learning”和“Interpretable Machine Learning: A Brief History, State-of-the-Art and Challenges”。
沙发等你来抢
去评论
评论
沙发等你来抢