- 简介最近对抗机器学习的发展凸显了构建强大的AI系统以保护免受越来越复杂的攻击的重要性。虽然像AI Guardian这样的框架旨在防御这些威胁,但它们通常依赖于可能限制其有效性的假设。例如,它们可能假设攻击只来自一个方向或在其训练数据中包含对抗性图像。我们的建议提出了AI Guardian框架的不同方法。我们建议在训练过程中不包括对抗性示例,而是将AI系统进行训练。这旨在创建一个对更广泛的攻击具有固有弹性的系统。我们的方法专注于使用稳定扩散的动态防御策略,不断学习和全面建模威胁。我们相信这种方法可以带来更广泛和更强大的防御对抗性攻击。在本文中,我们概述了我们提出的方法,包括理论基础,实验设计以及对提高AI安全性抵御对抗性威胁的预期影响。
- 图表
- 解决问题提高人工智能系统对抗性攻击的鲁棒性和普适性
- 关键思路通过不使用对抗性样本进行AI系统的训练,采用基于稳定扩散的动态防御策略来建立更具鲁棒性和普适性的AI安全防御框架
- 其它亮点论文提出了一种新的AI安全防御框架,实验设计充分,使用了多个数据集进行验证,并提供了开源代码
- 最近的相关研究包括:Adversarial Machine Learning at Scale、Towards Deep Learning Models Resistant to Adversarial Attacks、Adversarial Examples Are Not Bugs, They Are Features
沙发等你来抢
去评论
评论
沙发等你来抢