DNNShield: Embedding Identifiers for Deep Neural Network Ownership Verification

2024年03月11日
  • 简介
    机器学习(ML)的普及使得深度神经网络(DNNs)的训练得到了重大投资。然而,这些需要资源密集型训练的模型容易遭受盗窃和未经授权的使用。本文通过引入DNNShield,一种新颖的DNN保护方法,来解决这一挑战。DNNShield在训练之前无缝集成,通过使用专门的保护层在模型架构中嵌入唯一的标识符。这些层能够实现安全的训练和部署,并对各种攻击(包括微调、修剪和自适应对抗攻击)提供高弹性。值得注意的是,我们的方法在性能和计算开销方面实现了最小化(运行时间增加不到5%)。我们通过对三个数据集和四种模型架构进行广泛评估,验证了DNNShield的有效性和效率。这种实用的解决方案使开发人员能够保护他们的DNNs和知识产权。
  • 图表
  • 解决问题
    本论文旨在解决深度神经网络(DNN)训练过程中的知识产权保护问题,提出了一种名为DNNShield的新方法,该方法通过在模型架构中嵌入唯一的标识符来保护DNN,从而防止未经授权的使用和盗窃。
  • 关键思路
    DNNShield通过专门的保护层将唯一标识符嵌入模型架构中,实现安全的训练和部署,并对各种攻击(包括微调、剪枝和自适应对抗攻击)具有高弹性。此外,DNNShield的安全性能损失很小(运行时间增加不到5%)。
  • 其它亮点
    本论文的亮点包括:1.提出了一种新的DNN保护方法DNNShield;2.方法在保证安全性的同时,性能损失很小;3.作者在三个数据集和四个模型结构上进行了广泛的评估,并验证了DNNShield的有效性和效率。
  • 相关研究
    最近在这个领域中,还有一些相关的研究,例如:1. DeepSec: A Unified Platform for Secure Deep Learning(发表在IEEE S&P 2021);2. Deep Learning with Differential Privacy(发表在ACM CCS 2016);3. Adversarial Machine Learning at Scale(发表在ICLR 2018)。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论