Training Generative Adversarial Networks with Limited Data
原文链接
Training Generative Adversarial Networks with Limited Data. NeurIPS 2020
摘要
使用太少的数据训练生成对抗网络(GAN)通常会导致鉴别器过拟合,导致训练发散。我们提出了一种自适应鉴别器增强机制,可以在有限的数据范围内显著稳定训练。该方法不需要更改损失函数或网络架构,并且适用于从头开始的训练和在另一个数据集上微调现有的GAN。我们在几个数据集上证明,现在仅使用几千张训练图像就可以获得良好的结果,经常将StyleGAN2结果与数量级较少的图像匹配。我们预计这将为GAN开辟新的应用领域。我们还发现,广泛使用的CIFAR-10实际上是一个有限的数据基准,并将FID记录从5.59提高到了2.42。