Transferring GANs: generating images from limited data 论文学习

Transferring GANs: generating images from limited data

2018ECCV

论文链接:https://arxiv.org/pdf/1805.01677.pdf

Abstract

探究预训练网络对GAN的影响相关的问题

1. Introduction

贡献:

1. 研究了域自适应,评估了几个模型

2. 研究了源域和目标域之间的关系如何影响结果,并讨论选择合适的预训练模型的问题

3. 评估从GANS转移到cGAN的两种常用的方法

2. Related Work

Transfer learning/domain transfer:

巴拉巴拉很多其他的研究,看不懂~

与这些方法相比,作者不关注于传递鉴别特征,而是传递用于图像生成的知识,就是关注生成图像的质量。

GAN  cGAN相关

3. Generative Adversarial Networks

3.1 Loss functions

Transferring GANs: generating images from limited data 论文学习

3.2 Evaluation Metrics

作者选用两种评估方法

Fr´echet Inception Distance:

Transferring GANs: generating images from limited data 论文学习

Independent Wasserstein (IW) critic:

Transferring GANs: generating images from limited data 论文学习

4. Transferring GAN representations

4.1 GAN adaptation

作者采用WGAN-GP的结构,说这是被实验证明是唯一稳定并且不遭受模式崩溃的架构~

该生成器由一个全连接的层、四个resnet块和一个卷积层组成,并且鉴别器具有相同的设置。相同的体系结构用于CGAN。

Implementation details:

生成64X64的图片,还介绍了下学习速率设置和批训练

4.2 Generator/discriminator transfer configuration

进行了四个实验

用ImageNet预训练G 和D(也就是转移) ,用LSUN bedrooms做目标数据

Transferring GANs: generating images from limited data 论文学习

我们可以发现转移训练D效果比转移G更好。然后都转移效果最好,所以后续作者说都采用对G,D都转移

Transferring GANs: generating images from limited data 论文学习

可以发现转移GAN迭代时间短,且质量更好。

4.3 Size of the target dataset

又进行实验

作者使用来自LSUN卧室数据集的1000张图像做目的数据集,并使用IMANET作为源数据集。请注意,一般来说,GAN 要使用全套300万幅LSun卧室来做生成。

好了,看看结果吧~

Transferring GANs: generating images from limited data 论文学习

在这个实验中,我们发现根据预训练模型自适应的GAN需要少于大约两到五倍的图像,就可以获得与从头开始训练的GAN相似的分数

 

Transferring GANs: generating images from limited data 论文学习

可以发现预训练网络可以在早期迭代中已经生成高质量的图像,特别是具有更清晰和更明确的形状和更逼真的精细细节。

4.4 Source and target domains

作者开始研究原域与目标域的选取对实验的影响,没错,又要开始实验了

Transferring GANs: generating images from limited data 论文学习

原域:ImageNet和Places都覆盖了广阔的领域,对象和场景分别具有很大的多样性,而LSUN卧室和CelebA则覆盖了更窄的领域。

目标域:作者使用了更小的数据集,包括Oxford Flowers、LSUN Kitchens(2M图像中的50K的子集)、Label Faces(LFW)和CityScapes

看看效果图:

Transferring GANs: generating images from limited data 论文学习

可以看出,各有千秋把~

4.5 Selecting the pretrained model

那么怎么选择预训练模型呢?

也许最简单的方法是比较原源和目标域之间的距离,如下

Transferring GANs: generating images from limited data 论文学习

与表4比,大致一致,还是有点差别

然后作者得出结论:

源数据和目标真实数据之间的FID是粗糙的指标,而不是精确度量。实验小王子~~

4.6 Visualizing the adaptation process

Transferring GANs: generating images from limited data 论文学习

这个过程还是比较有意思,可以看到图片在慢慢的从原域转换到目标域

5. Transferring to conditional GANs

5.1 Conditional GAN adaptation

作者用AC-GAN的模型

Loss函数为:

Transferring GANs: generating images from limited data 论文学习

由GAN到cGAN的两种方法:

1. Cond Concat:将条件标签和输入噪声连接作为输入

2. Cond BNorm:将条件标记插入生成器的批归一化层中(纳尼?!)在这种情况下,每个类都有不同的批处理归一化参数。我们通过复制从无条件的GAN到所有类的值来初始化这些参数。

5.2 Results

Transferring GANs: generating images from limited data 论文学习

可以发现效果更好

还进行了和前面一样的size实验:

Transferring GANs: generating images from limited data 论文学习

 

6 Conclusions

1. 从预训练模型中转移GAN效果比从0开始强,迭代的更快,质量更好,cGAN也是

2. 结果还表明从窄而密集的数据集中传递知识更有效

(p.s. 好吧,全篇都是实验~~~~这也行)