- 简介“Depth from Focus” 技术通过确定多个不同焦距下的最大对焦瞬间(即焦点堆叠)来估计深度。然而,传统光学相机的有限采样率使得在焦距扫描期间获得足够的对焦线索变得困难。受生物视觉启发,事件相机以极低延迟记录时间内的强度变化,从而提供更多的对焦时间获取的时间信息。在本研究中,我们提出了 EDFF 网络,以从事件焦点堆叠中估计稀疏深度。具体而言,我们利用事件体素网格对强度变化信息进行编码,并将事件时间表面投影到深度域中以保留每个像素的焦距信息。我们提出了一个“焦距引导的跨模态注意力模块”,以融合上述信息。此外,我们还提出了一个“多层深度融合块”,旨在集成 UNet 类似架构每个层次的结果并产生最终输出。广泛的实验证明,我们的方法优于现有的最先进方法。
-
- 图表
- 解决问题本文旨在通过事件相机记录的强度变化信息,提出一种新的方法——EDFF网络,用于从事件焦点堆栈中估计稀疏深度。
- 关键思路通过事件相机记录的强度变化信息,结合焦距信息,提出了一种新的方法来估计深度。
- 其它亮点通过实验验证,本文提出的方法优于现有的其他方法。实验使用的数据集和开源代码可以进一步研究。
- 在这个领域中,还有一些相关的研究,例如:《EventStereo: Stereo Matching with Events and Spatiotemporal Mutual Information》、《Event-based Stereo Matching via Spatiotemporal Correspondence and Disparity Integration》等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流