在一个完美的世界里,眼见即为现实。如果是这样的话,人工智能的操作就简单多了。只可惜,世界并不总是完美的。如何让算法避免对抗性输入(adversarial inputs)的干扰从而提高鲁棒性便成为人工智能领域的一大难题。

以自动驾驶汽车的防撞系统为例。如果车载摄像头的视觉输入信号准确无误、完全可信的话,人工智能系统便可将信号直接对应到决策中,进而用右转、左转或直行的方法避开路上的行人。

但如果车载摄像头因故障产生了像素上的偏差,那又会怎样呢?事实是,如果人工智能系统盲目地相信了所谓的 “对抗性输入”,那它可能会作出不必要且危险的决策。

日前,麻省理工学院航天控制实验室(Aerospace Controls Laboratory)的研究人员开发了一种新的深度学习算法,通过在输入中建立合理 “怀疑” 来帮助计算机适应真实的、不完美的世界。这篇以 “Certifiable Robustness to Adversarial State Uncertainty in Deep Reinforcement Learning” 为题的论文于近日发表于 IEEE 的 Transactions on Neural Networks and Learning Systems 上。

以该团队将强化学习算法与深度神经网络相结合,建立了名为 “深度强化学习在对抗性输入下可验证的鲁棒性”(Certified Adversarial Robustness for Deep Reinforcement Learning,CARRL)。

研究人员在几个场景中测试了这种方法,包括模拟自动驾驶防撞测试和乒乓球电脑游戏(Pong。他们发现在面对不确定的对抗性输入时,CARRL 比其他的机器学习技术表现更好,它能避免更多碰撞,且赢得了更多的 Pong 游戏。

本文主要作者,麻省理工学院航空航天实验室博士后迈克尔 (Michael Everett) 在接受 TechExplore 采访时表示:“ 也许很多人认为对抗性是指别人在恶意侵入你的电脑。但可能仅仅是因为你的传感器不太好,或者测量结果不准。这是经常发生的情况。我们的方法有助于将这种缺陷考虑进来,并做出安全的决定。在任何涉及安全的关键领域,这都是一个需要考虑的重大问题。”

论文地址:https://ieeexplore.ieee.org/document/9354500

内容中包含的图片若涉及版权问题,请及时与我们联系删除