- 简介现今最先进的人脸识别系统通常在单台计算机上进行训练,利用来自各种用户的大量图像数据集。然而,这些数据集通常包含个人敏感信息,用户可能不愿意披露。为了解决潜在的隐私问题,我们探索了联邦学习在监督和无监督人脸识别系统中的应用,包括使用和不使用安全聚合器。联邦学习通过在分布式边缘设备上训练模型,而无需共享个人私有数据,从而实现共享模型的训练。在我们提出的系统中,每个边缘设备都会独立地训练自己的模型,然后将其传输到安全聚合器或直接传输到中央服务器。为了引入多样的数据而无需进行数据传输,我们使用生成对抗网络在边缘生成模拟数据。在此之后,安全聚合器或中央服务器将这些单个模型组合起来构建一个全局模型,然后将其传回边缘设备。基于CelebA数据集的实验结果表明,联邦学习在监督和无监督人脸识别系统中的应用具有双重优势。首先,它保护了隐私,因为原始数据仍然保存在边缘设备上。其次,实验结果表明,聚合模型的性能与单个模型的性能几乎相同,特别是当联邦模型不使用安全聚合器时。因此,我们的研究结果揭示了隐私保护人脸图像训练面临的实际挑战,特别是在隐私和准确性之间的平衡方面。
- 图表
- 解决问题本文试图通过联邦学习解决人脸识别系统中的隐私问题,即如何在不泄露用户个人信息的前提下,训练出高质量的人脸识别模型。
- 关键思路本文的关键思路是使用联邦学习在分布式边缘设备上训练模型,同时使用生成对抗网络引入多样性数据,最后通过安全聚合器或中央服务器将各个模型聚合成一个全局模型,从而在不泄露个人数据的前提下,实现高质量的人脸识别。
- 其它亮点本文使用CelebA数据集进行实验,发现在联邦学习的框架下,无论是在监督学习还是无监督学习中,使用安全聚合器或直接将模型传回中央服务器,都可以实现与单个模型几乎相同的识别效果。此外,本文还使用生成对抗网络引入多样性数据,从而增加了模型的鲁棒性。本文的方法可以保护用户隐私,同时不会牺牲识别准确率。
- 最近的相关研究包括:《Federated Learning for Privacy-Preserving Medical Image Analysis》、《Privacy-Preserving Face Recognition via Deep Learning》等。
沙发等你来抢
去评论
评论
沙发等你来抢