- 简介机器学习模型输出需要使用反事实解释(CF)来解释——通过对输入进行微小扰动——这在研究界中已经引起了注意。虽然CF示例的多样性很重要,但它们在同一时间内可行的方面并不完全适用。本文使用不同的基准数据集来检查通过保留其属性的逻辑因果关系是否可以在对原始输入进行少量更改后生成CF示例,并且在实际情况下对最终用户实际有用。为了实现这一点,我们使用黑盒模型作为分类器,以区分所需类别和输入类别,使用变分自动编码器(VAE)生成可行的CF示例。作为扩展,我们还提取了二维流形(每个数据集一个),定位了大多数可行示例,这是一种充分区分它们与不可行示例的表示。在我们的实验中,我们使用了三个常用数据集,并通过确认其在数据集中属性的重要性,生成了可行且同时稀疏的CF示例,满足所有可能的预定义因果约束。
-
- 图表
- 解决问题论文旨在解决通过小的扰动生成可行的反事实解释(CF)示例的问题,同时保持它们与原始输入的逻辑因果关系,并验证它们在真实世界中的实用性。
- 关键思路使用黑盒模型作为分类器,利用变分自编码器(VAE)生成可行的CF示例,并提取二维流形来表示大多数可行示例,以区分它们与不可行的示例。通过实验验证了该方法的有效性。
- 其它亮点论文使用了三个常用数据集进行实验,并成功生成了可行且稀疏的CF示例,这些示例满足了所有预定义的因果约束,并证实了它们在数据集中的重要性。此外,论文提出的方法还具有可扩展性和实用性。
- 最近的相关研究包括《Counterfactual Explanations without Opening the Black Box: Automated Decisions and the GDPR》和《Explaining Explanations: An Overview of Interpretability of Machine Learning》等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流