从大规模的2D图像集合中学习3D头部先验是实现高质量3D人体建模的重要步骤。其中一个核心要求是具有高效的架构,能够适应大规模数据集和高分辨率图像。不幸的是,现有的3D GAN在生成高分辨率样本时往往速度较慢,很难扩展,通常需要依靠2D超分辨网络以换取全局3D一致性。为了解决这些挑战,我们提出了Generative Gaussian Heads(GGHead),它采用了最近的3D Gaussian Splatting表示方法,并将其嵌入到3D GAN框架中。为了生成3D表示,我们采用了一个强大的2D CNN生成器,以预测模板头部网格的UV空间中的高斯属性。这样,GGHead利用了模板的UV布局的规则性,从而大大简化了预测无结构的3D高斯集合的难度。我们还通过对渲染的UV坐标使用一种新颖的总变分损失来提高生成的3D表示的几何保真度。直观地说,这种正则化鼓励相邻的渲染像素来自于模板的UV空间中相邻的高斯函数。总之,我们的流程能够高效地生成仅从单视角2D图像观察到的3D头部。我们提出的框架在FFHQ数据集上与现有的3D头部GAN的质量相当,同时速度更快,且完全符合3D一致性。因此,我们首次展示了以$1024^2$分辨率实时生成和渲染高质量3D一致头部的能力。
提问交流