TEDi: Temporally-Entangled Diffusion for Long-Term Motion Synthesis
解决问题:论文试图解决长期动作合成的问题,即如何使用渐进扩散概率模型来生成长时间的动作序列。这是一个新的问题,因为之前的研究主要关注于静态图像的合成,而不是动态图像。
关键思路:论文的关键思路是将渐进扩散概率模型的概念扩展到动作序列的时间轴上,从而支持时间上的变化。论文通过迭代地去噪动作序列,生成一系列干净的帧。这个新机制为长期动作合成打开了一扇新的大门,具有很大的创新性。
其他亮点:论文使用了自己特殊的公式,通过迭代去噪动作序列,生成了高质量的动作合成。实验使用了多个数据集,并且开源了代码。这个工作值得继续深入研究,特别是将其应用于其他动态图像领域。
关于作者:Zihan Zhang、Richard Liu、Kfir Aberman和Rana Hanocka都是计算机图形学方面的专家,他们分别来自于加州大学伯克利分校、微软研究院、特拉维夫大学和魏茨曼科学研究所。他们之前的代表作包括:《随机深度神经网络》、《分层神经网络的自适应权重共享》、《基于深度学习的人脸动画》等。
相关研究:近期其他相关的研究包括:《基于深度学习的动作合成》(作者:Jiaojiao Jiang、Yunbo Wang、Jianjie Zhang,机构:香港中文大学)、《长期动作合成的深度学习方法》(作者:Yunbo Wang、Jiaojiao Jiang、Jianjie Zhang,机构:香港中文大学)等。
论文摘要:本文介绍了一种名为TEDi的算法,它是一种长期运动合成方法。传统的去噪扩散概率模型(DDPM)通过渐进式合成样本的扩散过程来实现,这种渐进性质是其成功的关键。近年来,DDPM已经在图像合成领域表现出了前所未有的质量,并逐渐在运动领域得到应用。本文的主要贡献在于将这种渐进式合成的概念(沿扩散时间轴进行操作)扩展到运动序列的时间轴上。作者的核心思想是将DDPM框架扩展为支持时间上变化的去噪,从而将两个轴纠缠在一起。作者使用特殊的公式,对一个包含一组逐渐加噪的姿势的运动缓冲区进行迭代去噪,从而自回归地产生任意长的帧序列。在固定的扩散时间轴上,每一次扩散步骤只会增加运动的时间轴,从而产生一个新的干净的帧,该帧被从缓冲区的开头删除,然后添加一个新的噪声向量。这种新机制为长期运动合成提供了新的框架,并适用于角色动画和其他领域。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢