Segment Anything without Supervision

2024年06月28日
  • 简介
    这篇论文介绍了一种名为“分割任意模型(SAM)”的方法,但需要耗费大量人力进行数据标注。作者提出了“无监督SAM(UnSAM)”方法,可以进行全图像分割,无需人工标注。UnSAM采用分而治之的策略,“发现”视觉场景的分层结构。首先利用自上而下的聚类方法将未标注的图像分成实例/语义级别的分割。对于段内的所有像素,采用自下而上的聚类方法进行迭代合并,从而形成分层结构。然后利用这些无监督的多粒度掩模来监督模型训练。在七个流行数据集上进行评估,UnSAM取得了与有监督对照组SAM相当的结果,并在无监督分割方面超过了先前的最新技术,AR提高了11%。此外,作者还展示了有监督的SAM也可以从他们的自我监督标签中受益。通过将无监督伪掩模集成到SA-1B的地面真实掩模中,仅使用SA-1B的1%进行轻度半监督的UnSAM通常可以分割被有监督SAM忽略的实体,在SA-1B上超过SAM的AR 6.7%和AP 3.9%。
  • 图表
  • 解决问题
    Unsupervised SAM (UnSAM)解决了需要大量数据标注的问题,提出一种无需人工注释的自我监督方法进行整体图像分割。
  • 关键思路
    UnSAM采用自上而下的聚类方法将未标注的图像分割成实例/语义级别的段落,再使用自下而上的聚类方法将像素逐步合并成更大的组,形成分层结构。这些无监督的多粒度掩模然后用于监督模型训练。
  • 其它亮点
    在七个流行数据集上进行评估,UnSAM取得了与有监督的SAM相竞争的结果,并在AR方面超过了先前的无监督分割的最新技术水平11%。此外,论文还表明,有监督的SAM也可以从无监督的自我监督标签中受益。
  • 相关研究
    最近的相关研究包括自我监督学习和图像分割。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论