代码:https://anonymous.4open.science/r/ca7a3f2e-5c27-48bd-a3bc-2dceadc138c1/ 论文下载链接:https://arxiv.org/abs/2009.04433
not-so-BigGAN 使用小波变换,显著降低了总体计算需求。实验证明,在固定的计算预算下,not-so-BigGAN的收敛速度比BigGAN快几倍,以较低的计算预算(4块V100)达到了具有竞争力的图像质量,代码刚刚开源!作者单位:IBM研究院, MIT-IBM Watson AI Lab
BigGAN是高分辨率图像生成的最新技术,成功利用可扩展计算的先进技术和对生成对抗方法的理论理解,为条件图像生成创造了新记录。BigGAN成功的主要部分是由于在进行高维度训练时使用了大型mini-batch。虽然有效,但这项技术需要大量的计算资源和/或时间(256个TPU-v3内核),使模型无法为大型研究机构所用。在本文中,我们介绍了non-so-BigGAN,这是一种用于在高维自然图像上训练深度生成模型的简单且可扩展的框架。并非如此,BigGAN并没有像BigGAN中那样在像素空间中对图像建模,而是使用小波变换绕过了维数的"诅咒",从而显著降低了总体计算需求。通过广泛的经验评估,我们证明了在固定的计算预算下,not-so-BigGAN的收敛速度比BigGAN快几倍,从而以较低的计算预算(4个Telsa-V100 GPU)达到了具有竞争力的图像质量。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢