360 in the Wild: Dataset for Depth Prediction and View Synthesis

2024年06月27日
  • 简介
    大量的透视相机数据集促进了各种任务的新型基于学习的策略的出现,例如相机定位、单张图像深度估计或视图合成。然而,全景或全向图像数据集,包括姿态和深度等重要信息,大多数是由合成场景制成的。在这项工作中,我们介绍了一个大规模的360度视频数据集。这个数据集已经从互联网上仔细收集,并从世界各地的不同地点拍摄。因此,这个数据集展示了非常多样化的环境(例如室内和室外)和背景(例如有和没有移动物体)。我们的数据集包含25,000张图像,每张图像都提供了其相应相机的姿态和深度图。我们说明了我们的数据集对于两个主要任务的相关性,即单张图像深度估计和视图合成。
  • 作者讲解
  • 图表
  • 解决问题
    本论文旨在解决目前缺乏真实场景下全景图像数据集的问题,提出了一种从互联网上收集的大规模360度视频数据集,并探讨了其在单张图像深度估计和视图合成任务中的应用。
  • 关键思路
    论文的关键思路是收集了一组真实场景下的大规模360度视频数据集,并为其中的每个图像提供了相应的相机位姿和深度图,从而提高了单张图像深度估计和视图合成任务的准确性。
  • 其它亮点
    论文的亮点在于提供了一个真实场景下的大规模360度视频数据集,并探究了其在单张图像深度估计和视图合成任务中的应用。论文的实验设计详尽,使用了多种评估指标,并提供了数据集和源代码的开源。
  • 相关研究
    最近的相关研究包括使用合成数据集进行单张图像深度估计和视图合成任务的研究,如《Unsupervised Monocular Depth Estimation with Left-Right Consistency》和《Learning to Synthesize Motion Blur》。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问