Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion

2024年06月05日
  • 简介
    通过将可微分渲染与显式基于点的场景表示相结合,3D高斯点阵(3DGS)已经展示了突破性的3D重建能力。然而,迄今为止,3DGS在机器人领域的影响有限,因为高速自我运动是普遍存在的:自我运动引入了运动模糊,并导致现有基于帧的3DGS重建方法中出现伪影。为了解决这一挑战,我们介绍了Event3DGS,一种基于事件的3DGS框架。通过利用事件相机的卓越时间分辨率,Event3GDS可以在高速自我运动下重建高保真度的3D结构和外观。在多个合成和真实数据集上的广泛实验表明,与现有基于事件的密集3D场景重建框架相比,Event3DGS具有显著的优越性;Event3DGS在提高重建质量(+3dB)的同时,将计算成本降低了95\%。我们的框架还允许将一些运动模糊的基于帧的测量值纳入重建过程,以进一步提高外观保真度而不会损失结构精度。
  • 图表
  • 解决问题
    本论文旨在解决高速运动下的3D场景重建问题,尤其是在机器人领域的应用。
  • 关键思路
    本文提出了一种基于事件相机的3D高斯飞溅(3DGS)框架,利用事件相机的高时间分辨率,能够在高速运动下重建高保真度的3D结构和外观。
  • 其它亮点
    论文通过多个合成和真实数据集的实验,证明了Event3DGS相比现有的基于事件的3D场景重建框架具有更高的重建质量和更低的计算成本。此外,论文还介绍了如何将基于帧的测量结果纳入重建过程,以进一步提高外观保真度。
  • 相关研究
    最近的相关研究包括:《Event-based 3D Reconstruction Using a Surface Mesh with Dynamic Vertex Adjustment》、《Event-based 3D Reconstruction with a Multi-camera System》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论