Verifiably Robust Conformal Prediction

2024年05月29日
  • 简介
    Conformal Prediction(CP)是一种流行的不确定性量化方法,假定训练和测试数据是可交换的,提供了无分布、统计有效的预测集。在这种情况下,CP的预测集保证以用户指定的概率覆盖(未知的)真实测试输出。然而,当数据受到对抗性攻击时,这种保证会被违反,通常导致覆盖率的显著损失。最近,已经提出了几种方法来恢复这种情况下的CP保证。这些方法利用随机平滑的变化来产生保守集,从而考虑到对抗性扰动的影响。然而,它们的局限性在于,它们仅支持$\ell^2$有界扰动和分类任务。本文介绍了一种新的框架\emph{VRCP(可验证鲁棒的符合预测)},利用最近的神经网络验证方法,在对抗性攻击下恢复覆盖保证。我们的VRCP方法是第一个支持包括$\ell^1$、$\ell^2$和$\ell^\infty$在内的任意范数有界扰动以及回归任务的方法。我们在图像分类任务(CIFAR10、CIFAR100和TinyImageNet)和深度强化学习环境下的回归任务中评估和比较了我们的方法。在每种情况下,VRCP都实现了高于名义覆盖率,并且产生了比SotA更高效和更具信息量的预测区域。
  • 图表
  • 解决问题
    本文旨在解决Conformal Prediction(CP)在遭受对抗攻击时预测区间失效的问题。该论文提出了一种新的框架VRCP,旨在通过利用最新的神经网络验证方法来恢复在对抗攻击下的覆盖保证。
  • 关键思路
    VRCP是一种新的框架,利用神经网络验证方法,支持任意范数的扰动和回归任务,恢复对抗攻击下的覆盖保证。
  • 其它亮点
    论文提出的VRCP方法比现有技术更高效、更具信息量。论文在CIFAR10、CIFAR100和TinyImageNet等数据集上进行了实验,并在深度强化学习环境的回归任务中进行了评估。此外,论文还提供了开源代码。
  • 相关研究
    最近的相关研究包括Randomized Smoothing和其他一些利用神经网络验证方法的技术。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论