Quantum Adversarial Learning for Kernel Methods

2024年04月08日
  • 简介
    我们展示了基于量子核方法和支持向量机的混合量子分类器易受到对抗性攻击的影响,即通过对输入数据进行微小的工程扰动就可以欺骗分类器预测错误结果。然而,我们同时也展示了一些简单的防御策略,例如通过添加一些精心制作的扰动来进行数据增强,可以使分类器对新攻击具有鲁棒性。我们的结果在安全关键的学习问题和减轻某些形式的量子噪声的影响方面具有应用价值,因为攻击者也可以被理解为周围环境的一部分。
  • 图表
  • 解决问题
    本篇论文旨在研究量子核方法和支持向量机的混合量子分类器对于对抗攻击的鲁棒性,并提出一种简单的防御策略。
  • 关键思路
    论文使用数据扩充的方法来增强混合量子分类器的鲁棒性,该方法可以有效地抵御对抗攻击。
  • 其它亮点
    论文发现混合量子分类器容易受到对抗攻击的影响,但是使用数据扩充的方法可以提高分类器的鲁棒性。实验使用了不同的数据集来测试分类器的性能,同时开源了代码。这些研究结果在安全关键的学习问题和缓解某些形式的量子噪声方面具有应用价值。
  • 相关研究
    最近的相关研究包括: 1. 'Adversarial Attacks on Neural Network Policies' by A. Kurakin等人 2. 'Adversarial Machine Learning at Scale' by A. Biggio等人 3. 'Explaining and Harnessing Adversarial Examples' by I. Goodfellow等人
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论