- 简介通过将可微分渲染与显式基于点的场景表示相结合,3D高斯点阵(3DGS)已经展示了突破性的3D重建能力。然而,迄今为止,3DGS在机器人领域的影响有限,因为高速自我运动是普遍存在的:自我运动引入了运动模糊,并导致现有基于帧的3DGS重建方法中出现伪影。为了解决这一挑战,我们介绍了Event3DGS,一种基于事件的3DGS框架。通过利用事件相机的卓越时间分辨率,Event3GDS可以在高速自我运动下重建高保真度的3D结构和外观。在多个合成和真实数据集上的广泛实验表明,与现有基于事件的密集3D场景重建框架相比,Event3DGS具有显著的优越性;Event3DGS在提高重建质量(+3dB)的同时,将计算成本降低了95\%。我们的框架还允许将一些运动模糊的基于帧的测量值纳入重建过程,以进一步提高外观保真度而不会损失结构精度。
- 图表
- 解决问题本论文旨在解决高速运动下的3D场景重建问题,尤其是在机器人领域的应用。
- 关键思路本文提出了一种基于事件相机的3D高斯飞溅(3DGS)框架,利用事件相机的高时间分辨率,能够在高速运动下重建高保真度的3D结构和外观。
- 其它亮点论文通过多个合成和真实数据集的实验,证明了Event3DGS相比现有的基于事件的3D场景重建框架具有更高的重建质量和更低的计算成本。此外,论文还介绍了如何将基于帧的测量结果纳入重建过程,以进一步提高外观保真度。
- 最近的相关研究包括:《Event-based 3D Reconstruction Using a Surface Mesh with Dynamic Vertex Adjustment》、《Event-based 3D Reconstruction with a Multi-camera System》等。
沙发等你来抢
去评论
评论
沙发等你来抢