- 简介随着深度学习(DL)模型越来越受欢迎,它们的规模也越来越大,只有拥有大量训练数据集和巨大计算能力的公司才能管理这些大型模型。这些DL模型大多数是公司专有的,因此这些公司努力保护自己的私有模型不受模型提取攻击(MEA)的侵害,MEA的目的是通过训练替代模型来窃取模型。如今,公司倾向于将模型从中央服务器卸载到边缘/端点设备上。最新研究揭示,攻击者利用这个机会作为新的攻击向量,对运行受害模型的设备发起侧信道攻击(SCA),并获取各种模型信息,例如模型架构(MA)和图像维度(ID)。我们的工作首次提供了这种关系的全面理解,并将有益于未来MEA研究的攻击和防御双方,因为他们可以了解SCA所暴露的哪些信息比其他信息更重要。我们的分析还揭示,通过从SCA中获取受害模型信息,MEA甚至可以在没有任何先前模型知识的情况下变得高效和成功。最后,为了证明我们分析结果的实用性,我们在现实威胁假设下实证应用SCA,并随后进行MEA。结果表明,当对受害模型没有任何模型信息时,性能提高了高达5.8倍。
- 图表
- 解决问题本论文旨在研究边缘设备上深度学习模型的侧信道攻击,并探讨这种攻击对模型提取攻击的影响。
- 关键思路通过实验和分析,论文发现侧信道攻击可以泄露模型信息,使得模型提取攻击更加有效。同时,论文提出了一些对于模型安全具有重要意义的信息。
- 其它亮点论文的实验结果表明,侧信道攻击可以使得模型提取攻击的成功率提高5.8倍。此外,论文还提出了一些对于模型安全具有重要意义的信息,如模型架构和图像尺寸等。
- 与本论文相关的研究包括:《Deep Leakage from Gradients》、《Practical Black-Box Attacks against Machine Learning》等。
沙发等你来抢
去评论
评论
沙发等你来抢