论文链接:https://arxiv.org/abs/2106.03149
代码链接:https://github.com/LUSSeg
本文提出了一个用于 LUSS 任务的基线方法(名为PASS),包含自监督表征学习,伪标签生成和微调三个步骤。对于自监督表征学习,我们提出了
1. 一种非对比的像素级表征对齐策略,以在不损害类别表征的情况下增强像素级的表征。
2. 一个提高网络中间层表征质量的自深到浅的监督策略。
以上两种策略保证模型学到高质量且可共存的形状和类别表征信息。在标签生成阶段,我们提出了一种像素注意力机制来突出对类别贡献大的语义区域,以实现在大数据量下高效的像素级伪标签生成和微调。
PASS方法首次实现大规模的无监督语义分割(可视化结果见图表5),且相较于针对小规模数据设计的无监督语义分割方法有明显优势(见图表6)。此外如图表7所示,针对LUSS任务训练的PASS模型可以作为预训练模型提升下游有监督分割任务的性能。
PASS方法开源代码:https://github.com/LUSSeg/PASS
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢