- 简介通用的深度学习(DL)网络,如去噪和插值,缺乏数学可解释性,需要大量的训练数据来调整大量的参数集,并且在协方差转移期间容易受到破坏。为了解决这些缺点,针对一般的线性图像形成模型,我们首先提出了一个凸优化问题,其中包含一个新的图形平滑先验,称为梯度图Laplacian正则化器(GGLR),它促进了分段平面(PWP)信号重建。为了解决这个问题,我们引入了可变数量的辅助变量,创建了一族Plug-and-Play(PnP)ADMM算法,并将它们展开成可变复杂度的前馈网络,可通过反向传播进行参数调整。更复杂的展开网络需要更多的标记数据来训练更多的参数,但具有更好的潜在性能。实验结果表明,我们的展开网络在使用少量参数的情况下,与通用的DL网络在图像恢复质量方面表现相当,并展示了对协方差转移的改进鲁棒性。
-
- 图表
- 解决问题本文试图解决图像修复中的一些问题,例如缺乏数学可解释性、需要大量训练数据来调整大量参数以及在协方差转移期间易受到破坏。
- 关键思路本文提出了一种新的图形平滑先验,即梯度图Laplacian正则化器(GGLR),以促进分段平面(PWP)信号重建。作者提出了一种可变复杂度的前馈网络,将其展开为Plug-and-Play(PnP)ADMM算法的变量数量,通过反向传播进行参数调整。
- 其它亮点本文的亮点包括使用新的图形平滑先验来解决图像修复问题,提出了一种可变复杂度的前馈网络,展开为PnP ADMM算法的变量数量,使用较少的参数实现与通用DL网络相似的图像修复质量,同时提高了对协方差转移的鲁棒性。作者在多个数据集上进行了实验,结果显示该方法的性能优于其他方法。
- 在相关研究中,最近的研究包括“Deep Image Prior”和“Plug-and-Play ADMM with Denoising Prior for CT Image Reconstruction”。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流