- 简介可穿戴设备数据可用于各种健康监测目的,例如根据用户行为确定活动状态并提供量身定制的运动建议。然而,可穿戴设备的个人数据感知和计算能力有限,通常需要跨多个设备联合训练模型。联邦人类活动识别(HAR)提供了一种可行的研究途径,允许进行全局模型训练,而无需上传用户的本地活动数据。然而,最近的研究揭示了联邦学习框架中存在重大的隐私问题。为了解决这一问题,我们专注于调查跨多个可穿戴设备的联邦用户行为识别建模中的隐私泄露问题。我们提出的系统包括 $N$ 个可穿戴设备用户和一个参数服务器的联邦学习架构,该服务器可能会对模型参数进行敏感用户信息的提取。因此,我们考虑基于恶意服务器的成员推断攻击,利用客户端数据的模型概括差异。对五个公开可用的HAR数据集进行的实验表明,基于恶意服务器的成员推断攻击的准确率为92%。我们的研究提供了有关跨多个可穿戴设备进行联邦训练所涉及的重大隐私风险的初步证据,并在该领域提供了新的研究视角。
- 图表
- 解决问题本论文旨在研究联邦学习中的隐私泄露问题,特别是在多个可穿戴设备上进行用户行为识别建模时的隐私风险。
- 关键思路该论文提出了一种基于恶意服务器的成员推断攻击方法,通过利用客户端数据上的模型泛化差异,实现了92%的准确率。
- 其它亮点论文使用五个公开可用的HAR数据集进行实验,提供了有关联邦学习中隐私风险的初步证据。该论文的贡献在于提出了一种新的研究视角,即在多个可穿戴设备上进行联邦训练的隐私风险。
- 最近在联邦学习和隐私保护领域中进行了大量相关研究,例如《Federated Learning: Challenges, Methods, and Future Directions》、《Towards Federated Learning at Scale: System Design》等。
沙发等你来抢
去评论
评论
沙发等你来抢