- 简介标签差分隐私(DP)是一种框架,可以保护训练数据集中标签的隐私,同时特征向量是公开的。现有方法通过随机翻转标签来保护其隐私,然后训练模型使其输出近似于私有化标签。然而,随着类别数K的增加,需要更强的随机化,因此这些方法的性能显著下降。在本文中,我们提出了一种向量逼近方法,它易于实现并且引入很少的额外计算开销。我们的方法将每个标签转换为具有K个组件的随机向量,其期望反映类条件概率。直观地说,向量逼近比标量标签保留更多信息。简要的理论分析表明,我们的方法的性能仅随着K略微下降。最后,我们在合成和真实数据集上进行实验,验证了我们的理论分析以及我们方法的实际性能。
- 图表
- 解决问题研究如何在保护隐私的情况下进行标签数据的训练,解决标签隐私保护的问题。
- 关键思路将每个标签转化为一个具有K个组件的随机向量,其期望反映类条件概率,从而实现标签数据的隐私保护。
- 其它亮点论文提出的向量逼近方法易于实现,引入的计算开销很小。论文在合成数据集和真实数据集上进行了实验,验证了理论分析以及方法的实际性能。
- 当前领域中的相关研究主要是通过随机翻转标签来实现标签隐私保护,但随着类别数目的增加,需要更强的随机化,因此效果变差。
沙发等你来抢
去评论
评论
沙发等你来抢