Learning Interpretable Fair Representations

2024年06月24日
  • 简介
    最近提出了许多方法来学习公平的表示,以减少预测任务中的不公平结果。这些方法的一个关键动机是,第三方可以使用这些表示,而不知道其目标。然而,由于当前的公平表示通常不可解释,第三方除了预先约定的预测任务外,无法使用这些公平表示进行探索或获得任何额外的见解。因此,为了增加数据效用,超出预测任务之外,我们认为这些表示需要既公平又可解释。我们提出了一个通用的框架,通过在表示学习过程中引入可解释的“先验知识”来学习可解释的公平表示。我们实现了这个想法,并使用ColorMNIST和Dsprite数据集进行了实验。结果表明,除了可解释性外,我们的表示在下游分类任务中的准确性和公平性都比最先进的公平表示略高。
  • 图表
  • 解决问题
    论文试图提出一种学习公平且可解释的表示的方法,以增加数据的实用性。
  • 关键思路
    通过在表示学习过程中引入可解释的“先验知识”,提出了一种学习可解释公平表示的通用框架。
  • 其它亮点
    论文实现了这个想法,并在ColorMNIST和Dsprite数据集上进行了实验。结果表明,相比最先进的公平表示方法,我们的表示不仅可解释,而且在下游分类任务中实现了略高的准确性和更公平的结果。
  • 相关研究
    最近的相关研究包括“在预测任务中学习公平表示的方法”和“使用生成对抗网络(GANs)来学习公平表示的方法”。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论