Ambiguous Annotations: When is a Pedestrian not a Pedestrian?

2024年05月14日
  • 简介
    人工注释的数据集广泛用于机器学习模型的训练和测试。近年来,研究者越来越关注标签质量。然而,并不总是能够客观地确定一个分配的标签是否正确。本文将调查自动驾驶数据集注释中的这种模糊性作为数据质量的一个重要维度。我们的实验表明,从训练中排除高度模糊的数据可以提高最先进的行人检测器在LAMR、精度和F1分数方面的模型性能,从而节省训练时间和注释成本。此外,我们证明,为了安全地移除模糊实例并确保训练数据的代表性,理解数据集和所研究的类别的属性至关重要。
  • 图表
  • 解决问题
    论文旨在解决自动驾驶数据集标注中存在的模糊性问题,以提高机器学习模型的性能和节省训练时间和标注成本。
  • 关键思路
    通过排除高度模糊的数据,可以提高最先进的行人检测器的性能,作者还强调了理解数据集和研究类别属性的重要性。
  • 其它亮点
    论文的实验设计包括使用自动驾驶数据集进行评估,作者还开源了代码。此外,论文还强调了标注数据质量的重要性。
  • 相关研究
    最近的相关研究包括:1. 'Towards Reliable Evaluations of Adversarial Robustness with an Ensemble of Diverse Parameter-free Attacks' 2. 'Learning Robust Representations via Multi-View Information Bottleneck' 3. 'Adversarial Attacks and Defences: A Survey' 等等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论