Towards a Sampling Theory for Implicit Neural Representations

2024年05月28日
  • 简介
    隐式神经表示(INRs)已经成为计算机视觉和计算成像中解决反问题的强大工具。INRs将图像表示为由神经网络实现的连续域函数,该神经网络将空间坐标作为输入。然而,与传统的像素表示不同,对于线性反问题中使用INRs估计图像的样本复杂度知之甚少。为此,我们研究了通过拟合具有ReLU激活和傅里叶特征层的单隐藏层INR并使用广义形式的权重衰减正则化从其低通傅里叶系数中恢复连续域图像的采样要求。我们的关键洞察是将此非凸参数空间优化问题的最小化器与定义在无限维度的测度空间上的凸惩罚的最小化器相关联。我们确定了足够数量的样本,使得由宽度为1的INR实现的图像可以通过解决INR训练问题来恢复,并给出了一般宽度-$W$情况的猜想。为了验证我们的理论,我们经验性地评估了实现低宽度单隐藏层INR的图像精确恢复的概率,并展示了INR在更现实的连续域幻影图像的超分辨率恢复上的性能。
  • 作者讲解
  • 图表
  • 解决问题
    研究使用隐式神经表示(INR)解决计算机视觉和计算成像中的逆问题时,从其低通傅里叶系数中恢复连续域图像的采样要求。
  • 关键思路
    使用广义形式的权重衰减正则化,将单隐藏层INR与ReLU激活和傅里叶特征层拟合,将非凸参数空间优化问题的最小化器与定义在无限维度测度空间上的凸惩罚的最小化器相关联。
  • 其它亮点
    研究发现,对于宽度为1的INR,存在足够数量的样本,可以通过解决INR训练问题来恢复由其实现的图像。并提出了宽度为W的情况的猜想。通过实验证实了理论,并展示了INR在更现实的连续域幻影图像的超分辨率恢复中的性能。
  • 相关研究
    最近的相关研究包括使用INR解决逆问题,以及使用深度学习技术进行计算成像。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问