美国国防高级研究计划局(DARPA)的“确保人工智能对抗欺骗的强健性”(GARD)项目专注于通过开发新一代的防御措施来应对对ML模型的对抗性攻击,从而领先于这一安全挑战。
GARD对对抗性人工智能的反应集中在几个核心目标上。其中之一是开发一个测试平台,用于描述ML防御措施并评估其适用范围。由于对抗性人工智能领域相对较新,测试和评估潜在防御措施的方法很少,而且那些现实存在的方法缺乏严谨性和复杂性。确保新出现的防御措施与已知攻击的能力实现同步或将其超越,对于建立对该技术的信任和确保其最终使用至关重要。为了支持这一目标,GARD研究人员开发了一些资源和虚拟工具,以帮助支持社区评估和验证现有和新兴ML模型和防御措施对对手攻击的有效性。
来自二六科技、IBM、MITRE、芝加哥大学和谷歌研究的GARD研究人员已经合作产生了一个虚拟测试平台、工具箱、基准数据集和培训材料,以实现这一工作目标。此外,他们还通过一个公共资源库将这些资产提供给更广泛的研究界。
资产清单的核心是一个名为Armory的虚拟平台,它能够对对抗性防御进行可重复、可扩展和强大的评估。Armory“试验台”为研究人员提供了一种方法,使他们的防御措施与已知的攻击和相关场景相对抗。它还提供了改变场景和进行修改的能力,确保防御系统能够在一系列攻击中提供可重复的结果。
GARD项目的对抗性防御的整体评估资料库可在:
DARPA鼓励感兴趣的研究人员利用这些资源,并经常查看更新。
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢