Generalized Coverage for More Robust Low-Budget Active Learning

2024年07月16日
  • 简介
    ProbCover方法是Yehuda等人提出的一种在低预算环境下进行主动学习的算法,它试图在选择的数据点上用给定半径的球“覆盖”数据分布。然而,我们证明该算法的性能极其敏感于半径超参数的选择,并且调整它相当困难,原始的启发式方法经常失败。因此,我们引入并理论上推导了一种广义的“覆盖”概念,包括ProbCover的目标作为一种特殊情况,但也允许更平滑的概念,这些概念对超参数的选择更加稳健。我们提出了一种有效的贪心方法来优化这种覆盖,并推广了ProbCover的算法;由于它与核心引导有密切联系,因此我们称之为“MaxHerding”。该目标也可以通过$k$-medoids的变体进行非贪心优化,从而阐明与其他低预算主动学习方法的关系。在全面的实验中,MaxHerding在多个低预算图像分类基准测试中超过了现有的主动学习方法,并且其计算成本比大多数竞争方法更低。
  • 解决问题
    ProbCover算法的性能对半径超参数选择非常敏感,调整困难,需要一种更加稳健的覆盖度量方法。
  • 关键思路
    提出了一种广义的覆盖度量方法MaxHerding,相比ProbCover算法更加稳健,能够有效优化覆盖度量,并在多个低预算图像分类基准测试中超越现有主动学习方法。
  • 其它亮点
    MaxHerding算法是一种有效的贪心方法,也可以通过k-medoids算法进行非贪心优化;实验结果表明MaxHerding算法在多个低预算图像分类基准测试中超越了现有主动学习方法,而且计算成本更低。
  • 相关研究
    近期的相关研究包括Active Learning with Budget Constraints via BayesOpt and Maximal Loss Reduction,Active Learning for Convolutional Neural Networks: A Core-Set Approach等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论