- 简介密集深度图已被用作视觉感知任务的关键要素。人们一直在努力提高深度质量,这些努力范围从基于优化的方法到基于学习的方法。尽管长期以来取得了显著进展,但由于系统性的测量偏差,如密度、感测模式和扫描范围等,它们在实际世界中的适用性是有限的。众所周知,这些偏差使得这些方法难以实现泛化。我们观察到,学习输入模态(例如图像和深度)的联合表示,这是最近方法采用的方法,对偏差很敏感。在这项工作中,我们通过及时的工程设计来分离这些模态,以减轻偏差。为此,我们设计了一个新的深度提示模块,以允许根据传感器类型或场景配置的新深度分布获得理想的特征表示。我们的深度提示可以嵌入到单目深度估计的基础模型中。通过这个嵌入过程,我们的方法帮助预训练模型摆脱深度扫描范围的限制,并提供绝对比例深度图。我们通过广泛的评估证明了我们方法的有效性。源代码可在 https://github.com/JinhwiPark/DepthPrompting 上公开获取。
- 图表
- 解决问题本文旨在解决密集深度图在视觉感知任务中受到测量偏差的限制,提出了一种通过解耦输入模态来缓解偏差的方法。
- 关键思路本文的关键思路是通过设计一种深度提示模块,将深度信息与其他输入模态解耦,从而消除深度扫描范围的限制,提供绝对尺度深度图。
- 其它亮点本文的亮点包括提出了一种深度提示模块来解决深度测量偏差的问题,并通过实验证明了该方法的有效性。作者还公开了代码和使用的数据集。
- 在该领域的相关研究包括基于优化和基于学习的方法,以及对深度估计模型进行联合表示的方法。
沙发等你来抢
去评论
评论
沙发等你来抢