- 简介人脸识别系统(FRS)已经越来越多地融入到关键应用程序中,包括监视和用户身份验证,突显了它们在现代安全系统中的关键作用。最近的研究揭示了FRS在对抗性攻击(例如对抗性贴片攻击)和后门攻击(例如训练数据污染)方面的漏洞,引发了对它们可靠性和可信度的重大关注。以往的研究主要集中在传统的对抗性或后门攻击上,忽视了此类威胁的资源密集型或特权操作本质,从而限制了它们的实际泛化、隐蔽性、普适性和鲁棒性。因此,在本文中,我们通过用户研究和初步探索深入探讨了FRS中固有的漏洞。通过利用这些漏洞,我们发现了一种新型攻击,名为人脸身份后门攻击(FIBA),它揭示了一种潜在更具破坏性的对FRS的威胁:注册阶段的后门攻击。FIBA绕过了传统攻击的限制,通过允许任何佩戴特定触发器的攻击者绕过这些系统,从而实现了广泛的破坏。这意味着在数据库中插入一个有毒示例之后,相应的触发器就成为任何攻击者欺骗FRS的通用密钥。这种策略从本质上挑战了传统攻击,通过污染特征数据库而不是训练数据,从而在注册阶段发起攻击,从而显着改变了威胁形势。
-
- 图表
- 解决问题本论文试图探讨面部识别系统(FRS)的固有漏洞,并通过用户研究和初步探索,提出一种新的攻击方式——面部身份后门攻击(FIBA),其能够在注册阶段就实现后门攻击。
- 关键思路本论文提出的FIBA攻击方法,可以在数据库中插入一个有毒样本,使得任何攻击者都能够通过该样本来欺骗FRS系统,从而绕过系统的安全检测。
- 其它亮点本论文的亮点在于提出了一种新的攻击方式,即FIBA攻击,该攻击方式可以绕过FRS系统的安全检测,具有广泛的破坏性。论文还使用了用户研究和实验来验证该攻击的可行性,并提出了一些防御措施。同时,论文还探讨了传统攻击方法的局限性,并提出了新的攻击方式。
- 近期在该领域中的相关研究包括:1. Exploring Adversarial Examples in Malware Detection;2. Adversarial Attacks and Defenses in Deep Learning。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流