DiffSF: Diffusion Models for Scene Flow Estimation

2024年03月08日
  • 简介
    场景流估计是许多实际应用的基本要素,特别是对于自动驾驶汽车和机器人等自主代理。虽然最近的场景流估计方法已经达到了合理的准确性,但它们的适用性还需要一个可靠性度量。为了提高准确性并同时提供不确定性估计,我们提出了 DiffSF,它将基于 Transformer 的场景流估计与去噪扩散模型相结合。在扩散过程中,通过添加高斯噪声逐渐扰动真实的场景流向量场。在反向过程中,从随机采样的高斯噪声开始,通过对源点云和目标点云进行条件化,预测出场景流向量场。我们展示了扩散过程相较于之前的方法大大增加了预测的鲁棒性,从而在标准场景流估计基准测试中取得了最先进的性能。此外,通过使用不同的初始状态进行多次采样,去噪过程可以预测出多个假设,从而使我们的方法能够检测到大多数不准确的预测并测量输出的不确定性。
  • 作者讲解
  • 图表
  • 解决问题
    提高场景流估计的准确性和可靠性,同时提供不确定性估计。
  • 关键思路
    结合基于Transformer的场景流估计和去噪扩散模型,通过扩散过程逐渐扰动场景流向量场,从而增加预测的鲁棒性,通过采样多个初始状态,预测多个假设,从而实现输出不确定性的量化。
  • 其它亮点
    通过DiffSF方法,在标准场景流估计基准测试中取得了最先进的性能。使用了多个数据集进行实验,并开源了代码。
  • 相关研究
    近期的相关研究包括:《RAFT: Recurrent All-Pairs Field Transforms for Optical Flow》、《Unsupervised Learning of Object Keypoints for Perception and Control》等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问