DISCRET: Synthesizing Faithful Explanations For Treatment Effect Estimation

2024年06月02日
  • 简介
    设计忠实而准确的AI模型是具有挑战性的,特别是在个体治疗效果估计(ITE)领域。在关键领域(例如医疗保健)中部署的ITE预测模型应该理想地是(i)准确的,(ii)提供忠实的解释。然而,目前的解决方案是不充分的:最先进的黑盒模型没有提供解释,用于黑盒模型的事后解释器缺乏忠实度保证,而自我解释模型极大地影响了准确性。为了解决这些问题,我们提出了DISCRET,这是一个自我解释的ITE框架,可以为每个样本综合忠实的基于规则的解释。DISCRET背后的一个关键见解是,解释可以作为数据库查询,以识别类似的样本子组。我们提供了一种新颖的RL算法,可以从大量的搜索空间中高效地综合这些解释。我们评估了DISCRET在涉及表格、图像和文本数据的各种任务上的表现。DISCRET优于最佳的自我解释模型,并具有与最佳的黑盒模型相当的准确性,同时提供忠实的解释。DISCRET可在https://github.com/wuyinjun-1993/DISCRET-ICML2024上获得。
  • 作者讲解
  • 图表
  • 解决问题
    论文试图解决的问题是在个体治疗效果估计(ITE)领域中,如何设计既准确又提供忠实解释的AI模型。目前的解决方案存在不足,黑盒模型无法提供解释,后续的解释器缺乏忠实性保证,而自解释模型会大大降低准确性。
  • 关键思路
    论文提出了一种名为DISCRET的自解释ITE框架,可以为每个样本合成忠实的基于规则的解释。DISCRET的关键洞察是解释可以兼作数据库查询,以识别相似的样本子组。作者提供了一种新颖的强化学习算法,可以从大量的搜索空间中高效地合成这些解释。
  • 其它亮点
    论文在多个任务中对DISCRET进行了评估,包括表格、图像和文本数据。结果表明,DISCRET优于最佳自解释模型,并具有与最佳黑盒模型相当的准确性,同时提供忠实的解释。作者还开源了DISCRET的代码。
  • 相关研究
    最近在这个领域中,还有一些相关的研究,例如“Towards Causal Reasoning with Attention-based Deep Neural Networks”和“Counterfactual Fairness for Sequential Data”。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问