Fast and Simple Explainability for Point Cloud Networks

2024年03月12日
  • 简介
    我们提出了一种快速简单的可解释人工智能(XAI)方法,适用于点云数据。该方法计算了相对于训练网络下游任务的逐点重要性,这有助于更好地理解网络属性,这对于安全关键应用至关重要。除了调试和可视化外,我们的低计算复杂度还可以在推理时向网络提供在线反馈。这可以用于减少不确定性并增加鲁棒性。在本文中,我们介绍了“基于特征的可解释性”(FBI),在瓶颈之前计算每个点的特征范数。我们分析了梯度和瓶颈前后策略的使用,结果表明瓶颈前的方法更加平滑和排名更高。与当前的XAI方法相比,我们获得了至少三个数量级的加速,因此可扩展用于大型点云或大规模架构。我们的方法在分类可解释性方面取得了SOTA结果。我们演示了所提出的度量如何有助于分析和表征3D学习的各个方面,例如旋转不变性、对分布外(OOD)异常值或域漂移和数据集偏差的鲁棒性。
  • 图表
  • 解决问题
    论文旨在提出一种快速简单的可解释人工智能(XAI)方法,用于处理点云数据。该方法旨在计算每个点相对于训练网络下游任务的重要性,以便更好地理解网络的特性,从而在安全关键应用中具有重要意义。此外,该方法的低计算复杂度有助于在线反馈到推理网络,以减少不确定性并增加鲁棒性。论文还试图分析和表征3D学习的各个方面,例如旋转不变性、对分布外(OOD)异常值或数据集偏差的鲁棒性等。
  • 关键思路
    论文提出了一种称为特征基解释性(FBI)的方法,该方法计算瓶颈之前每个点的特征范数,以评估每个点对于网络下游任务的重要性。与当前的XAI方法相比,该方法计算复杂度低,可扩展到大型点云或大规模架构。在梯度、瓶颈前后策略的分析中,论文证明了瓶颈之前的策略更具有平滑性和排序性能。该方法在分类可解释性方面取得了SOTA结果。
  • 其它亮点
    论文的实验设计了多个数据集,包括ModelNet40、ShapeNetPart、ScanObjectNN等,证明了该方法的有效性和可扩展性。论文还开源了代码。此外,论文还分析了该方法在旋转不变性、鲁棒性和数据集偏差等方面的应用。
  • 相关研究
    在相关研究方面,最近的研究包括使用梯度和感知重要性进行点云解释性的方法、使用基于梯度的方法进行点云分类可解释性的方法等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论