StyleGAN学习笔记

A Style-Based Generator Architecture for Generative Adversarial Networks

原文链接

A Style-Based Generator Architecture for Generative Adversarial Networks. CVPR 2019: 4401-4410

摘要

  借鉴了风格迁移(style transfer)文献,我们提出了一种生成对抗网络中生成器的替代结构。这种新的结构实现了自动学习的(automatically learned)、无监督的(unsupervised)高级属性(attributes)分离(例如,在人脸训练时的姿势和身份)和生成图像中的随机变量(stochastic variation)(例如,雀斑、头发),并且实现了直观的(intuitive)、可控的(scale-specific)的图像合成。新的生成器在传统的生成质量指标(distribution quality metrics)上达到了最高技术水平,可以显著提高插值特性(interpolation properties),并且可以更好地解构(disentangle)变量(variation)中的潜在因子(latent factors)。为了量化插值质量(interpolation quality)和解构(disentanglement),我们提出了两种新的自动化方法,适用于任何生成器结构。最后,我们介绍一个新的,非常多样性的并且高质量的人脸数据集。

Read More

DR-GAN学习笔记

Disentangled Representation Learning GAN for Pose-Invariant Face Recognition

原文链接

Disentangled Representation Learning GAN for Pose-Invariant Face Recognition. CVPR 2017: 1283-1292

摘要

  两张人脸图像之间的较大姿势差异是人脸识别领域的关键挑战之一。本文提出的DR-GAN有三个创新点:第一,除了图像合成之外,生成器的编码器-解码器(encoder-decoder)结构允许DR-GAN学习到生成性的和有辨别性的(generative and discriminative)特征(representation);第二,这种特征和其他的人脸特征(例如姿势)是明确分离的,通过提供给解码器姿势编码(pose code),以及提供给判别器姿势估计(pose estimation)来实现;第三,DR-GAN可以使用一张图片或多张图片作为输入,然后生成一个统一的特征以及任意数量的合成图像。

Read More