DeLiGAN论文笔记
论文链接:https://arxiv.org/pdf/1706.02071.pdf
该文主要解决的是在小样本训练数据的情况下如何提高数据的多样性的问题。
论文主要有两个贡献点:
- 对原始GAN用于生成数据的潜在空间(latent space),将其定义为一个混合高斯模型。
- 为了衡量类内多样性(intra-class diversity),提出了modified inception-score(m-IS)这一指标。
DeLiGAN
在原始GAN中,生成器将随机向量z转换成样本,
.z通常来源于简单的潜在分布,生成器将其映射到复杂高维的数据分布上,这要求网络达到一定的深度,以此表现出数据的多样性,反过来也对样本的数量也提出了要求,这对于小样本数据是做不到的。论文由此将重点放在了提高z所在分布的复杂性,于是提出了对将潜在空间作为混合高斯模型的重新参数化。简而言之就是将z的分布定义为混合高斯模型,即:
这样,是模型学到的参数,这里提出一个representation trick [Kingma et al.],将z写成包含标准高斯分布的形式:
表示原来的协方差矩阵的对角元素,
,K是潜在空间的维度。
DeLiGAN和原始GAN的结构对比如图所示:
在生成数据时,我们随机选择N个高斯模型中的一个并生成z,这之后的流程和原始GAN一样。但在这里需要考虑一个问题是,由于在
有局部最优值,生成器就会想方设法缩减
的值以在概率较高的部分获取更多样本,这样会导致
降为0,因此原来的损失函数又额外增加了L2正则化项,于是变为:
Modified Inception-score
我们希望生成的样本足够逼真,对分类器来说更容易判断,即:如果样本x足够realistic,那么其标签的分布的熵值应该比较低,我们还希望生成的数据具备类内多样性,于是在这里对原来的inception-score进行修改,得到m-IS指标用来衡量KL散度:
小结:
论文中给出的实验表明,在小型数据集上GAN的表现不如DeLiGAN,其原因是采用混合高斯模型对潜在空间的建模可以更准确地拟合数据的真实分布。
模型也比较简单,还需要撸一下代码。GitHub链接:https://github.com/val-iisc/deligan/