From SHAP Scores to Feature Importance Scores

2024年05月20日
  • 简介
    eXplainable Artificial Intelligence(XAI)的一个核心目标是在给出某个预测时,为机器学习(ML)模型的特征分配相对重要性。解释性特征归因的重要性可由近期广泛使用的SHAP和LIME等工具所说明。不幸的是,使用SHAP和LIME的博弈理论基础进行特征归因的精确计算可能会产生明显不令人满意的结果,这相当于报告了误导性的相对特征重要性。最近的工作针对严格的特征归因,通过研究基于逻辑定义的特征选择解释的公理聚合特征来进行。本文表明,特征归因与先验投票权之间存在重要关系,并且这些最近提出的公理聚合是过去研究的一些权力指数的几个实例。此外,目前尚不清楚一些最广泛使用的权力指数如何被用作特征重要性分数(FIS),即在XAI中使用权力指数,并且这些指数中哪些最适合于特征归因的XAI目的,即从不产生被视为不令人满意的结果的角度来看。本文提出了FIS应具备的新颖期望属性,并提出了展示所提出属性的新颖FIS。最后,本文对所提出属性中最知名的权力指数进行了严格分析。
  • 图表
  • 解决问题
    论文旨在解决可解释人工智能中特征归因的问题,即如何确定机器学习模型中各特征对预测结果的相对重要性,以及如何避免计算出具有误导性的结果。
  • 关键思路
    论文提出了一种基于先验投票权的特征重要性得分(FIS)计算方法,该方法基于过去研究中的权力指数理论,并提出了FIS应具备的几个理想属性。此外,论文还提出了一些新的FIS计算方法,并对已知的权力指数方法在这些属性上进行了分析。
  • 其它亮点
    论文使用了SHAP和LIME等工具,针对特征归因问题进行了研究。提出了FIS应满足的几个理想属性,以及新的FIS计算方法。论文还对已知的权力指数方法在这些属性上进行了分析。实验使用了多个数据集,并比较了不同方法的性能。
  • 相关研究
    与本文相关的研究包括SHAP和LIME等特征归因方法的研究,以及过去关于权力指数的研究。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论