论文标题:Action-Conditioned 3D Human Motion Synthesis with Transformer VAE 论文链接:https://arxiv.org/abs/2104.05670 主页链接:https://imagine.enpc.fr/~petrovim/actor/ 作者单位:古斯塔夫•埃菲尔大学

表现SOTA!性能优于Action2Motion、Act-MoCoGAN等网络,通过将合成数据添加到训练中可改善动作识别,以及运动去噪,代码即将开源!

我们解决了以动作为条件的现实,多样的人类运动序列生成问题。与完成或扩展运动序列的方法相比,此任务不需要初始姿势或序列。在这里,我们通过训练生成的变分自动编码器(VAE),学习了人类动作的动作感知潜在表示。通过从该潜在空间采样并通过一系列位置编码查询某个持续时间,我们合成了以分类动作为条件的变长运动序列。具体来说,我们设计了一个基于Transformer的架构ACTOR,用于编码和解码从动作识别数据集估算的一系列参数SMPL人体模型。我们在NTU RGB + D,HumanAct12和UESTC数据集上评估了我们的方法,并显示了对现有技术的改进。此外,我们提出了两个用例:通过将我们的合成数据添加到训练中来改善动作识别,以及运动去噪。我们的代码和模型将可用。

内容中包含的图片若涉及版权问题,请及时与我们联系删除