- 简介在许多应用中,包括监控、娱乐和修复,都需要提高视频序列的空间分辨率和帧率。目的是提高视觉质量,细化细节,创造更逼真的观看体验。现有的时空视频超分辨率方法没有有效地利用时空信息。为了解决这个限制,我们提出了一种联合时空视频超分辨率的生成对抗网络。生成网络包括三个操作:浅层特征提取、深层特征提取和重建。它使用三维卷积同时处理时间和空间信息,并包括一种新颖的三维注意机制来提取最重要的通道和空间信息。判别网络使用两个分支结构来处理细节和运动信息,使生成的结果更加准确。在Vid4、Vimeo-90K和REDS数据集上的实验结果证明了所提出方法的有效性。源代码公开可用于https://github.com/FCongRui/3DAttGan.git。
- 图表
- 解决问题论文旨在解决视频超分辨率和帧率提高的问题,提高视觉质量和真实感。现有的空时视频超分辨率方法不能有效地利用时空信息。
- 关键思路论文提出了一种基于生成对抗网络的联合空时视频超分辨率方法。该方法利用三维卷积同时处理时间和空间信息,包括一种新的三维注意机制来提取最重要的通道和空间信息。判别网络使用双分支结构处理细节和动态信息,使生成结果更准确。
- 其它亮点论文在Vid4、Vimeo-90K和REDS数据集上进行了实验,证明了该方法的有效性。并且提供了开源代码。
- 最近的相关研究包括《Deep Video Super-Resolution Network Using Dynamic Upsampling Filters Without Explicit Motion Compensation》、《Video Super-Resolution via Recurrently-Refined Residual Network》等。
沙发等你来抢
去评论
评论
沙发等你来抢