- 简介设计忠实而准确的AI模型是具有挑战性的,特别是在个体治疗效果估计(ITE)领域。在关键领域(例如医疗保健)中部署的ITE预测模型应该理想地是(i)准确的,(ii)提供忠实的解释。然而,目前的解决方案是不充分的:最先进的黑盒模型没有提供解释,用于黑盒模型的事后解释器缺乏忠实度保证,而自我解释模型极大地影响了准确性。为了解决这些问题,我们提出了DISCRET,这是一个自我解释的ITE框架,可以为每个样本综合忠实的基于规则的解释。DISCRET背后的一个关键见解是,解释可以作为数据库查询,以识别类似的样本子组。我们提供了一种新颖的RL算法,可以从大量的搜索空间中高效地综合这些解释。我们评估了DISCRET在涉及表格、图像和文本数据的各种任务上的表现。DISCRET优于最佳的自我解释模型,并具有与最佳的黑盒模型相当的准确性,同时提供忠实的解释。DISCRET可在https://github.com/wuyinjun-1993/DISCRET-ICML2024上获得。
-
- 图表
- 解决问题论文试图解决的问题是在个体治疗效果估计(ITE)领域中,如何设计既准确又提供忠实解释的AI模型。目前的解决方案存在不足,黑盒模型无法提供解释,后续的解释器缺乏忠实性保证,而自解释模型会大大降低准确性。
- 关键思路论文提出了一种名为DISCRET的自解释ITE框架,可以为每个样本合成忠实的基于规则的解释。DISCRET的关键洞察是解释可以兼作数据库查询,以识别相似的样本子组。作者提供了一种新颖的强化学习算法,可以从大量的搜索空间中高效地合成这些解释。
- 其它亮点论文在多个任务中对DISCRET进行了评估,包括表格、图像和文本数据。结果表明,DISCRET优于最佳自解释模型,并具有与最佳黑盒模型相当的准确性,同时提供忠实的解释。作者还开源了DISCRET的代码。
- 最近在这个领域中,还有一些相关的研究,例如“Towards Causal Reasoning with Attention-based Deep Neural Networks”和“Counterfactual Fairness for Sequential Data”。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流