- 简介分裂学习作为竖直联邦学习中最常见的架构之一,由于其保护隐私的特性,已经在工业界得到广泛应用。在这种架构中,持有标签的一方由于特征数据不足,寻求其他方的合作以提高模型性能。这些参与者中的每一个都有一个自定义的底层模型,从其自己的特征数据中学习隐藏表示,并将嵌入向量上传到标签持有者持有的顶层模型中进行最终预测。这种设计允许参与者在不直接交换数据的情况下进行联合训练。然而,现有研究指出,恶意参与者仍可能从上传的嵌入中推断出标签信息,导致隐私泄露。本文首先提出了一种嵌入扩展攻击,手动修改嵌入以破坏现有的防御策略,这些策略依赖于限制参与者上传的嵌入与标签之间的相关性。随后,我们提出了一种新的标签混淆防御策略,称为“LabObf”,它将每个原始的独热向量标签随机映射到多个数字软标签中,值相互交织,极大地增加了攻击者推断标签的难度。我们在四种不同类型的数据集上进行实验,结果表明,LabObf可以将攻击者的成功率降低到接近于随机猜测的水平,同时保持可接受的模型准确性。
- 图表
- 解决问题防止垂直联邦学习中的隐私泄露
- 关键思路提出了一种新的标签混淆防御策略,称为LabObf,通过将原始标签映射到多个数字软标签来增加攻击者推断标签的难度。
- 其它亮点使用四个不同类型的数据集进行了实验,结果表明LabObf可以将攻击者的成功率降至近乎随机猜测的水平,同时保持可接受的模型准确性。
- 其他研究已经指出,恶意参与者仍然可以从上传的嵌入中推断标签信息,这可能会导致隐私泄露。
沙发等你来抢
去评论
评论
沙发等你来抢