Progressive One-shot Human Parsing 论文链接:https://arxiv.org/abs/2012.11810 代码链接:https://github.com/Charleshhy/One-shot-Human-Parsing 作者单位:悉尼大学(陶大程团队)等 表现SOTA!性能优于PANet、SG-One和AWP等网络,代码即将开源!

之前的人体解析模型仅限于将人体解析为训练数据中预定义的类别,这对于灵活地推广到未知的类别(例如时尚分析中的新服装)并不灵活。在本文中,我们提出了一个新的问题,即One-shot人体解析(OSHP),该问题要求将人解析为由任何单个参考示例定义的开放参考类集。在训练过程中,仅暴露训练集中定义的基础类别,这些基础类别可能与参考类别的一部分重叠。在本文中,我们设计了一种新颖的渐进式单次解析网络(POPNet),以解决两个关键挑战,即测试偏差和小尺寸。 POPNet由两个协作的度量学习模块组成,分别称为“注意力指导模块”和“最近质心模块”,可以学习基础类的代表性原型,并在测试过程中快速将能力迁移到看不见的类中,从而减少测试偏差。此外,POPNet采用了一种渐进式人工分析框架,该框架可以以粗粒度合并所学习的父类知识,以帮助以细粒度识别后代类,从而解决小规模问题。针对OSHP量身定制的ATR-OS基准测试表明,POPNet大大优于其他有代表性的单次分割模型,并建立了坚实的基准。

内容中包含的图片若涉及版权问题,请及时与我们联系删除