- 简介机器学习模型在大量真实或合成数据的训练下,通常在各个领域都能取得出色的预测性能。然而,这种实用性伴随着越来越多的隐私问题,因为训练数据可能包含敏感信息。为了解决这些问题,提出了机器去学习的方法,以从模型中删除特定的数据样本。虽然一些去学习技术可以高效地以较低的成本删除数据,但最近的研究强调了存在的漏洞,即恶意用户可能请求删除被篡改的数据以破坏模型。尽管这些攻击很有效,但扰动数据与原始训练数据不同,无法通过哈希验证。现有的机器去学习攻击也存在实际限制,并需要大量额外的知识和资源。为了填补当前去学习攻击的空白,我们介绍了去学习可用性攻击。这种模型不可知、去学习不可知、预算友好的攻击将数据分布信息提炼成一小组良性数据。这些数据被自动污染检测工具识别为良性数据,因为它们对模型训练有积极影响。虽然对于机器学习来说是良性的,但删除这些数据会显著降低模型的信息。我们的评估表明,删除这些良性数据(总训练数据不超过1%)可能会将模型准确度降低高达50%。此外,我们的发现表明,准备充分的良性数据对于最近的去学习技术构成了挑战,因为删除这些合成实例需要比常规数据更高的资源。这些见解强调了未来研究需要重新考虑在机器去学习的背景下的“数据污染”问题。
- 图表
- 解决问题本文旨在解决机器学习模型中隐私泄露的问题,提出了一种新的机器遗忘攻击,旨在破坏模型的预测性能。
- 关键思路本文提出了一种新的机器遗忘攻击,称为“可用性攻击”,可以将数据分布信息转化为一小组良性数据,这些数据对于机器学习来说是良性的,但却可以显著降低模型的准确性。
- 其它亮点本文提出的机器遗忘攻击是模型无关、遗忘无关、预算友好的。实验表明,遗忘这些良性数据可以将模型准确性降低高达50%,并且这些良性数据对最近的机器遗忘技术构成了挑战。
- 最近的相关研究包括:1.隐私保护机器学习;2.机器学习中的数据污染攻击;3.机器学习中的遗忘攻击。
沙发等你来抢
去评论
评论
沙发等你来抢