- 简介本文介绍了一种名为图神经网络(GNNs)的技术的反事实解释方法,它提供了一种强大的理解自然可以用图结构表示的数据的方式。此外,在许多领域,推导出数据驱动的全局解释或规则是非常有必要的,可以更好地解释所涉及模型和数据的高级特性。然而,在现实世界的数据集中评估全局反事实解释是很困难的,因为缺乏人工注释的基准真相,这限制了它们在分子科学等领域的使用。此外,这些数据集的规模越来越大,对于基于随机搜索的方法提出了挑战。因此,本文提出了一种新的全局解释模型RLHEX,用于分子属性预测。它将反事实解释与人类定义的原则相一致,使解释更易于解释和专家评估。RLHEX包括一个基于VAE的图形生成器,用于生成全局解释,以及一个适配器,用于调整潜在表示空间以符合人类定义的原则。通过Proximal Policy Optimization(PPO)进行优化,RLHEX生成的全局解释涵盖了比输入图形多4.12%,并且平均降低了0.47%的反事实解释集与输入集之间的距离,适用于三个分子数据集。 RLHEX提供了一个灵活的框架,可以将不同的人类设计原则纳入反事实解释生成过程中,使这些解释与领域专业知识相一致。代码和数据发布在https://github.com/dqwang122/RLHEX。
- 图表
- 解决问题如何生成可解释的分子属性预测的全局因果解释?
- 关键思路提出一种新的全局解释模型 RLHEX,它包括一个基于变分自编码器(VAE)的图生成器和一个适配器,用于将潜在表示空间调整到人类定义的原则。通过近端策略优化(PPO)进行优化,RLHEX 生成的全局解释覆盖了更多的输入图,并将因果解释集与输入集之间的距离平均降低了0.47%。
- 其它亮点实验表明,RLHEX 提供了一种灵活的框架,可以将不同的人类设计原则纳入因果解释生成过程中,使这些解释与领域专业知识相一致。代码和数据已在 https://github.com/dqwang122/RLHEX 上发布。
- 最近的相关研究包括《Interpretable Machine Learning: A Brief History, State-of-the-Art and Challenges》、《Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI》等。
沙发等你来抢
去评论
评论
沙发等你来抢