{论文快读}GAN

标题:Generative Adversarial Nets
作者:Ian J. Goodfellow等
摘要:{论文快读}GAN
这里就不列直观解释了,直接看论文。

1.“最小最大“博弈问题

首先要知道作者的终极目的:已知pgp_gpdp_dpzp_z,也可以通过采样pdatap_{data}获得一小部分数据xx,训练pgpdatap_g来拟合p_{data}
作者将两个模型抽象为一个minimax的优化问题:
{论文快读}GAN
作者证明了这一问题的全局优解是:pg=pdatap_g=p_{data}。所以问题转化为求解图中的最优化问题。然后作者提出了算法1来解这个最优化问题面,并证明了算法1的有效性。
{论文快读}GAN
其思路是:获得初始化的pgp_gpdp_d->内循环通过minibatch对D做梯度下降->固定D重新采样对G做梯度下降->(反复以上梯度下降过程)->得到最优解pgpdatap_g\approx p_{data}
这四步也正好和文中给出的图匹配
{论文快读}GAN
这个图一猛地一看其实很难看懂,但是和算法1的步骤结合起来看就容易理解多了。几个要点:

  1. a)D是一个“partially accurate”的分类器,意思是性能可以差点,但是首先得是能称得上分类器,不能是天马行空随机输出的。
  2. a)->b)中开始按照内循环的说明训练D。b)图的左侧pgpxp_g\approx p_x,所以pdp_d较大,相应的右侧pdp_d较小。
  3. b)->c)这里D完成了一歩梯度下降,固定下来,开始训练G,我们看到pgp_gpxp_x更加接近了。