【标题】AdaFuse: Adaptive Temporal Fusion Network for Efficient Action Recognition 【作者团队】Yue Meng, Rameswar Panda, Chung-Ching Lin, Prasanna Sattigeri, Leonid Karlinsky, Kate Saenko, Aude Oliva, Rogerio Feris 【发表时间】2021/2/10 【机构】OpenAI & Johns Hopkins University 【论文信息】原文链接 | 论文链接 【推荐理由】 本文来源于麻省理工学院收录于ICPR2021的会议论文, 其展示了自适应时间融合对于高效视频识别的有效性。在四个具有挑战性和多样性的数据集上进行大量实验表明了该方法的可以节省大约40%的计算量且识别精度和效率较高。
时间建模是高效视频动作识别的关键。虽然理解时间信息可以提高动态动作的识别精度,但是去除时间冗余和重用过去的特征可以显著节省计算量,从而实现高效的动作识别。本文介绍了一种自适应时间融合网络,称为AdaFuse,该网络可以动态地融合当前和过去的特征图的通道,用于强化时间建模。具体地,将来自历史卷积特征图的必要信息与当前修剪的特征图融合,以提高识别精度和效率。此外,本文使用跳过操作来进一步降低动作识别的计算成本。在V1和V2, Jester和Mini-Kinetics上进行了广泛的实验表明,该方法可以节省大约40%的计算量,并且其精度与最先进的方法相当。
图1:AdaFuse: 自适应时间融合网络结构
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢