标题:亚马逊、悉尼大学|Attention in Attention Network for Image Super-Resolution(图像超级分辨率注意力网络的注意力机制)

简介:卷积神经网络已经显示了在单个图像超分辨率(SISR) 上的先进性;过去十年。在SISR的最新进展中,注意机制对于高性能超分模型至关重要。然而,很少有作品真正讨论为什么关注工作和它是如何工作的。在这项工作中,我们试图量化和可视化静态注意力机制,并表明并非全部注意力模块同样有益。然后,我们提出注意力网络(A2N)中的高度精确图像。实验表明,与最先进的轻量级网络相比,我们的模型可以实现卓越的权衡性能。局部属性图上的实验也证明注意力(A2)结构可以从更广范围内提取特征。

代码:https://github.com/haoyuc/A2N

论文链接:https://arxiv.org/pdf/2104.09497

内容中包含的图片若涉及版权问题,请及时与我们联系删除