- 简介随着虚拟现实、增强现实和手势控制等技术的快速发展,用户期望与计算机界面的交互更加自然和直观。现有的视觉算法经常难以完成高级人机交互任务,需要准确可靠的绝对空间预测方法。此外,在单眼图像中处理复杂场景和遮挡带来了全新的挑战。本研究提出了一种网络模型,可以对根相对网格和根恢复任务进行并行处理。该模型使得能够从单眼RGB图像中恢复相机空间中的3D手部网格。为了方便端到端的训练,我们采用了隐式学习方法来增强2D热图的兼容性,提高了在不同子任务中2D线索的兼容性。将Inception概念融入谱图卷积网络中,探索根相对网格,并将其与用于根恢复探索的局部详细和全局关注方法相结合。这种方法提高了模型在复杂环境和自遮挡场景中的预测性能。通过在大规模手部数据集FreiHAND上的评估,我们证明了我们提出的模型与最先进的模型相当。本研究为各种人机交互应用中准确可靠的绝对空间预测技术的发展做出了贡献。
-
- 图表
- 解决问题该论文旨在解决计算机界面与人类交互中的空间预测问题,尤其是针对复杂场景和遮挡的情况下的手势识别和手部姿态估计。
- 关键思路该论文提出了一种基于深度学习的网络模型,通过平行处理根相对网格和根恢复任务,从单眼RGB图像中恢复出相机空间中的3D手部网格。
- 其它亮点该论文采用了隐式学习方法来增强2D热图的兼容性,提高了模型在复杂环境和自遮挡场景中的预测性能。实验使用了大规模手部数据集FreiHAND进行评估,并且与现有的最先进模型相比表现相当。
- 在最近的相关研究中,有一些与该论文相关的研究,如《DeepPrior++: Improving Fast and Accurate 3D Hand Pose Estimation》和《3D Hand Shape and Pose Estimation from a Single RGB Image》等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流