- 简介机器学习(ML)的普及使得敏感数据的隐私比以往任何时候都更加重要。像Split Learning(SL)这样的协作学习技术旨在保护客户数据同时增强ML过程。尽管有前途,但已被证明SL容易受到大量攻击,因此引起了对其数据隐私保护效果的担忧。在本文中,我们介绍了一种混合方法,将SL和函数秘密共享(FSS)相结合,以确保客户数据隐私。客户端在将激活映射发送到服务器之前添加一个随机掩码。服务器无法访问原始函数,而是使用FSS生成的共享进行工作。因此,在正向和反向传播期间,服务器无法从激活映射中重构客户端的原始数据。此外,通过视觉反演,我们展示了使用FSS时服务器无法从激活映射中重构原始图像数据。与其他SL基础方法相比,我们的方法通过减少服务器访问客户输入信息来增强隐私,从而减少隐私泄露。我们的方法还确保了对特征空间劫持攻击的安全性,保护敏感信息免受潜在的操纵。我们的协议产生了有希望的结果,与没有SL的相同模型相比,通信开销降低了2倍以上,训练时间降低了7倍以上。此外,我们展示了我们的方法达到了>96%的准确率,并且与明文模型相当。
-
- 图表
- 解决问题论文旨在解决机器学习中隐私泄露的问题,提出一种结合Split Learning和Function Secret Sharing的混合方法,以确保客户数据的隐私。
- 关键思路论文提出了一种混合方法,将Split Learning和Function Secret Sharing结合起来,通过在客户端添加随机掩码来保护客户数据的隐私,同时使用FSS生成共享来确保服务器无法重构客户端的原始数据。
- 其它亮点论文通过实验表明,该方法可显著减少通信开销和训练时间,同时保持高准确度。此外,该方法还能够防止特征空间劫持攻击,保护敏感信息免受潜在的篡改。
- 在相关研究方面,最近也有一些关于隐私保护的机器学习方法的研究,如Differential Privacy和Homomorphic Encryption等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流