深度学习模型容易被小骗招攻击,已经众所周知。因此,DARPA去年发布了GARD项目,全称是the Guaranteeing AI Robustness against Deception(保证AI面临欺骗时的鲁棒性)。

GARD对对抗性AI的新颖反应将集中在三个主要目标上:1)防御性ML的理论基础的发展以及以此为基础的新防御机制的词典; 2)在各种环境中创建和测试防御性系统; 3)建造一个新的试验台,以表征相对于威胁情景的ML防御能力。通过这些相互依存的程序元素,GARD旨在创建具有严格标准的耐欺骗性机器学习技术,以评估其鲁棒性。

GARD将探索许多潜在防御方法的研究方向,包括生物学。 Siegelmann说:“例如,我们希望产生的基于广泛情境的防御可以在免疫系统中看到,该系统可以识别攻击,获胜并记住攻击,从而在未来的交战中产生更有效的反应。”

GARD将致力于解决当前的需求,但也要牢记未来的挑战。该计划将首先专注于基于图像的最新ML,然后逐步发展到视频,音频和更复杂的系统-包括多传感器和多模式变化。它还将寻求解决能够在其生命周期内进行预测,决策和适应的ML。

这个项目DARPA方面的负责人之前是麻省大学的女教授Hava Siegelmann,后改为来自科罗拉多州立大学的Bruce Draper(曾任1999年CVPR的大会主席)。

据TechCrunch今天报道,该项目已经确定由Intel负责,合作方还包括佐治亚理工。Intel的项目负责人是安全专家Jason Martin

内容中包含的图片若涉及版权问题,请及时与我们联系删除