- 简介本文介绍了一种名为Amalgam的神经网络混淆框架,用于在云环境中以隐私保护的方式训练神经网络模型。在云上训练专有的神经网络模型和数据集存在泄露模型架构和数据集的风险。Amalgam通过向要用于训练的神经网络模型和数据集添加经过校准的噪声来实现隐蔽云环境中的原始模型架构和训练数据。在训练完成后,Amalgam从扩充的模型中提取出原始模型并返回给用户。不同的计算机视觉和自然语言处理模型和数据集的评估结果表明,Amalgam在不影响正确性的情况下引入了适度的开销,并且不会影响模型的准确性。
- 图表
- 解决问题如何在云环境中保护神经网络模型和数据集的隐私性?
- 关键思路提出了一种神经网络混淆框架Amalgam,通过在模型和数据集上添加噪声来保护隐私,训练完后再提取原始模型。
- 其它亮点Amalgam框架在不影响模型准确性的情况下,成功保护了神经网络模型和数据集的隐私性。实验使用了计算机视觉和自然语言处理模型和数据集,并证明了Amalgam的可行性。
- 近期的相关研究包括:Privacy-Preserving Deep Learning(PPDL)、Secure Multi-Party Computation(SMPC)等。
沙发等你来抢
去评论
评论
沙发等你来抢