Make Split, not Hijack: Preventing Feature-Space Hijacking Attacks in Split Learning

2024年04月14日
  • 简介
    机器学习(ML)的普及使得敏感数据的隐私比以往任何时候都更加重要。像Split Learning(SL)这样的协作学习技术旨在保护客户数据同时增强ML过程。尽管有前途,但已被证明SL容易受到大量攻击,因此引起了对其数据隐私保护效果的担忧。在本文中,我们介绍了一种混合方法,将SL和函数秘密共享(FSS)相结合,以确保客户数据隐私。客户端在将激活映射发送到服务器之前添加一个随机掩码。服务器无法访问原始函数,而是使用FSS生成的共享进行工作。因此,在正向和反向传播期间,服务器无法从激活映射中重构客户端的原始数据。此外,通过视觉反演,我们展示了使用FSS时服务器无法从激活映射中重构原始图像数据。与其他SL基础方法相比,我们的方法通过减少服务器访问客户输入信息来增强隐私,从而减少隐私泄露。我们的方法还确保了对特征空间劫持攻击的安全性,保护敏感信息免受潜在的操纵。我们的协议产生了有希望的结果,与没有SL的相同模型相比,通信开销降低了2倍以上,训练时间降低了7倍以上。此外,我们展示了我们的方法达到了>96%的准确率,并且与明文模型相当。
  • 作者讲解
  • 图表
  • 解决问题
    论文旨在解决机器学习中隐私泄露的问题,提出一种结合Split Learning和Function Secret Sharing的混合方法,以确保客户数据的隐私。
  • 关键思路
    论文提出了一种混合方法,将Split Learning和Function Secret Sharing结合起来,通过在客户端添加随机掩码来保护客户数据的隐私,同时使用FSS生成共享来确保服务器无法重构客户端的原始数据。
  • 其它亮点
    论文通过实验表明,该方法可显著减少通信开销和训练时间,同时保持高准确度。此外,该方法还能够防止特征空间劫持攻击,保护敏感信息免受潜在的篡改。
  • 相关研究
    在相关研究方面,最近也有一些关于隐私保护的机器学习方法的研究,如Differential Privacy和Homomorphic Encryption等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问