Jae Hyun Lim, Jong Chul Ye, Geometric GAN.
概
很有趣, GAN的训练过程可以分成
- 寻找一个超平面区分real和fake;
- 训练判别器, 使得real和fake分得更开;
- 训练生成器, 使得real趋向错分一侧.
主要内容

McGAN
本文启发自McGAN, 在此基础上, 有了下文.
结合SVM
设想, GAN的判别器D(x)=S(⟨w,Φζ(x)⟩), 其中S是一个**函数, 常见如sigmoid, 先假设其为identity(即D(x)=⟨w,Φζ(x)⟩).
McGAN 是借助⟨w,Φζ(x)⟩来构建IPM, 并通过此来训练GAN. 但是,注意到, 若将Φζ(x)视作从x中提取出来的特征, 则⟨w,Φζ(x)⟩便是利用线性分类器进行分类,那么很自然地可以将SVM引入其中(训练判别器的过程.
minw,bsubjectto21∥w∥2+C∑i(ξi+ξi′)⟨w,Φζ(xi)⟩+b≥1−ξi⟨w,Φζ(gθ(zi))⟩+b≤ξi′−1ξi,ξi′≥0,i=1,…,n.i=1,…,ni=1,…,n
类似于
w,bminRθ(w,b;ζ),(13)
其中
Rθ(w,b;ζ)=2Cn1∥w∥2+n1∑i=1nmax(0,1−⟨w,Φζ(xi)⟩−b)+n1∑i=1nmax(0,1+⟨w,Φζ(gθ(zi))⟩+b).(14)
进一步地, 用以训练ζ:
w,b,ζminRθ(w,b;ζ).(15)
SVM关于w有如下最优解
wSVM:=i=1∑nαiΦζ(xi)−i=1∑nβiΦζ(gθ(zi)),
其中αi,βi只有对支持向量非零.
定义
M={ϕ∈Ξ∣∣⟨wSVM,ϕ⟩+b∣≤1}
为margin上及其内部区域的点.

于是
Rθ(w,b;ζ)=n1∑i=1n⟨wSVM,siΦζ(gθ(zi))−tiΦζ(xi)⟩+constant,(18)
其中
ti={1,0,Φζ(xi)∈Motherwise,si={1,0,Φζ(gθ(zi))∈Motherwise.(19)
训练ζ
于是ζ由此来训练
ζ←ζ+ηn1i=1∑n⟨wSVM,ti∇ζΦζ(xi)−si∇ζΦζ(gθ(zi))⟩.
训练gθ
就是固定w,b,ζ训练θ.
所以
θminLw,b,ζ(θ),
其中
Lw,b,ζ(θ)=−n1i=1∑nD(gθ(zi)),
于是
θ←θ+ηn1i=1∑n⟨wSVM,si∇θΦζ(gθ(zi))⟩.
理论分析
n→∞的时候



定理1: 假设(D∗,g∗)是(24), (25)交替最小化解, 则pg∗(x)=px(x)几乎处处成立, 此时R(D∗,G∗)=2.
注: 假体最小化是指在固定g∗下, R(D∗,g∗)最小,在固定D∗下L(D∗,g∗)最小.
证明



注:文中附录分析了各种GAN的超平面分割解释, 挺有意思的.