3DAttGAN: A 3D Attention-based Generative Adversarial Network for Joint Space-Time Video Super-Resolution

2024年07月24日
  • 简介
    在许多应用中,包括监控、娱乐和修复,都需要提高视频序列的空间分辨率和帧率。目的是提高视觉质量,细化细节,创造更逼真的观看体验。现有的时空视频超分辨率方法没有有效地利用时空信息。为了解决这个限制,我们提出了一种联合时空视频超分辨率的生成对抗网络。生成网络包括三个操作:浅层特征提取、深层特征提取和重建。它使用三维卷积同时处理时间和空间信息,并包括一种新颖的三维注意机制来提取最重要的通道和空间信息。判别网络使用两个分支结构来处理细节和运动信息,使生成的结果更加准确。在Vid4、Vimeo-90K和REDS数据集上的实验结果证明了所提出方法的有效性。源代码公开可用于https://github.com/FCongRui/3DAttGan.git。
  • 图表
  • 解决问题
    论文旨在解决视频超分辨率和帧率提高的问题,提高视觉质量和真实感。现有的空时视频超分辨率方法不能有效地利用时空信息。
  • 关键思路
    论文提出了一种基于生成对抗网络的联合空时视频超分辨率方法。该方法利用三维卷积同时处理时间和空间信息,包括一种新的三维注意机制来提取最重要的通道和空间信息。判别网络使用双分支结构处理细节和动态信息,使生成结果更准确。
  • 其它亮点
    论文在Vid4、Vimeo-90K和REDS数据集上进行了实验,证明了该方法的有效性。并且提供了开源代码。
  • 相关研究
    最近的相关研究包括《Deep Video Super-Resolution Network Using Dynamic Upsampling Filters Without Explicit Motion Compensation》、《Video Super-Resolution via Recurrently-Refined Residual Network》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论