360 in the Wild: Dataset for Depth Prediction and View Synthesis

2024年06月27日
  • 简介
    大量透视相机数据集的出现促进了各种任务的新型基于学习的策略,例如相机定位、单张图像深度估计或视图合成。然而,包括姿态和深度等重要信息的全景或全向图像数据集大多由合成场景制成。在本文中,我们介绍了一种大规模的野外360度视频数据集。该数据集已经从互联网上精心收集,来自世界各地的不同地点进行拍摄。因此,该数据集展示了非常多样化的环境(例如室内和室外)和背景(例如有或没有移动物体)。我们的数据集由25,000张图像组成,每张图像都附带其相应的相机姿态和深度图。我们展示了我们的数据集在两个主要任务中的相关性,即单张图像深度估计和视图合成。
  • 作者讲解
  • 图表
  • 解决问题
    本论文介绍了一个大规模360度视频数据集,解决了目前缺乏真实场景数据的问题,为单张图像深度估计和视角合成等任务提供了更好的数据基础。
  • 关键思路
    本论文的关键思路是通过精心收集和整理互联网上的360度视频数据,提供了一个包含姿态和深度信息的真实场景数据集,以促进单张图像深度估计和视角合成等任务的研究。
  • 其它亮点
    本论文的亮点在于提供了一个大规模的真实场景360度视频数据集,包括室内和室外环境、移动和静止物体,每个图像都提供了相应的姿态和深度信息。此外,论文还展示了该数据集在单张图像深度估计和视角合成等任务中的有效性。该数据集已经开源。
  • 相关研究
    在最近的相关研究中,也有一些关于360度图像数据集的研究,例如Google Street View等。此外,单张图像深度估计和视角合成等任务也是当前计算机视觉领域的热门研究方向,相关的论文包括《Unsupervised Monocular Depth Estimation with Left-Right Consistency》和《Neural View Synthesis for Light Field Cameras》等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问