【标题】DS-Net: Dynamic Spatiotemporal Network for Video Salient Object Detection 【作者团队】Yuting Su, Weikang Wang, Jing Liu, Peiguang Jing, Xiaokang Yang 【发表时间】2020.12.9 【论文链接】https://arxiv.org/pdf/2012.04886.pdf 【参考链接】https://github.com/TJUMMG/DS-Net 【推荐理由】 本文通过提出一种动态时空网络模型来动态融合空间和时间信息,以解决视频显著对象检测中静态和动态显著性线索的动态可靠性差异较大的难题。 由于移动目标总是吸引人眼更多的注意力,因此时间动机信息总是被用来补充空间信息以检测视频中的显著目标。尽管已经提出了诸如光流之类的有效工具来提取时间动机信息,但是当其应用于显著性检测时,由于相机的移动或显著目标的部分移动,它经常遇到困难。本文研究了时空信息的互补作用,并提出了一种新颖的动态时空网络(DS-Net),以更有效地融合时空信息。我们构建了一个对称的双支路网络来明确提取空间和时间特征。并设计了一个动态权重生成器(DWG)来自动学习相应显著性分支的可靠性和一个自上而下的交叉注意聚合(CAA)程序,以促进时空特征的动态互补聚合。最后,在粗糙显着图的指导下,通过空间关注来修改特征,然后通过解码器部分获得最终显着图。在五个基准VOS,DAVIS,FBMS,SegTrack-v2和ViSal上的实验结果表明,该方法比最先进的算法具有更高的性能。 图1:DS-Net模型架构

内容中包含的图片若涉及版权问题,请及时与我们联系删除