论文标题:Focal Frequency Loss for Generative Models 论文链接:https://arxiv.org/abs/2012.12821 作者单位:南洋理工大学(Chen Change Loy团队), 商汤科技 本文发现缩小频域差距可改善图像合成质量,因此针对频域提出FFL(Focal Frequency Loss)损失函数,可提升生成网络性能(如SPADE),代码即将开源!

尽管生成模型在使用深度神经网络创建逼真的图像方面取得了巨大的成功,但实际图像和生成的图像之间仍然存在差距,尤其是在频域中。在这项研究中,我们发现缩小频域差距可以进一步改善图像合成质量。为此,我们提出了focal frequency loss这一新的目标函数,它将生成模型的优化引入频域。所提出的损失使模型可以动态地关注于难以通过降低易用频率的权重来合成的频率分量。这个目标函数是对现有空间损失的补充,由于神经网络的固有症结,它为重要频率信息的丢失提供了很大的阻抗。 我们证明了Focal Frequency Loss 的多功能性和有效性,以改善感知质量和量化性能方面的各种基线。

内容中包含的图片若涉及版权问题,请及时与我们联系删除