Privacy-Preserving Debiasing using Data Augmentation and Machine Unlearning

2024年04月19日
  • 简介
    数据增强广泛用于缓解训练数据中的数据偏差。然而,数据增强会使机器学习模型面临隐私攻击,例如成员推断攻击。本文提出了一种有效的数据增强和机器学习取消组合,可以在提供已知攻击的可证明防御的同时减少数据偏差。具体而言,我们使用基于扩散的数据增强维护训练模型的公平性,然后利用多片段取消学习从ML模型中删除原始数据的识别信息,以保护隐私攻击。跨不同数据集的实验评估表明,我们的方法可以在减少偏差和对抗最先进的隐私攻击方面实现显着的改进。
  • 图表
  • 解决问题
    本论文旨在解决数据增强在训练数据集中减轻数据偏差的同时,避免机器学习模型受到隐私攻击的问题。论文提出了一种有效的数据增强和机器学习模型取消学习的组合,可以减少数据偏差,同时提供对已知攻击的可证明防御。
  • 关键思路
    论文的关键思路是使用基于扩散的数据增强来维护训练模型的公平性,然后利用多片段取消学习从机器学习模型中删除原始数据的识别信息,以保护隐私免受攻击。
  • 其它亮点
    本论文设计了实验来评估其方法,使用了多个数据集,并展示了其方法在减少数据偏差和提高隐私保护方面的显著改进。值得关注的是,本论文的方法具有可证明的隐私保护性能。
  • 相关研究
    最近的相关研究包括隐私攻击和隐私保护方面的研究。例如,论文《Membership Inference Attacks Against Machine Learning Models》研究了成员推断攻击,而论文《Differentially Private Learning with Composite Likelihood》则探讨了隐私保护的方法。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论