如果概率模型都是观测变量,那么给定数据就可以用极大似然估计法或者贝叶斯估计发去获得模型。但是,有时候概率模型既有观测变量,又有隐变量或者潜在变量,这样就不能用这些估计方法了。本文要介绍的EM算法可以解决这类问题。
三硬币模型
为了更好的描述EM算法,先提出一个实际的问题。问题描述如下:
假设有3枚硬币,分别记作A,B和C。 这些硬币正面向上的概率分别是 π、p和q 。进行如下抛硬币试验:先抛硬币A, 根据其结果选出硬币B或者硬币C,正面选硬币B,反面选硬币C;然后掷选出的硬币,抛硬币的结果,出现正面记作1,出现反面记作0;独立重复10次试验。结果如下:
1,1,0,1,0,0,1,0,1,1
假设只能观测到掷硬币的结果,不能观测掷硬币的过程。问如何估计三硬币正面出现的概率。
我们用θ=(π,p,q)表示模型的参数,y表示某次得到的0或者1的观测结果,z表示隐变量,表示某次A的结果。一般地,用Y表示观测变量数据,用Z表示隐变量的数据。在上面的问题中,Y=(y1,y2,…,yn)T表示观测到硬币B、C的0,1序列,Z=(z1,z2,…,zn)T表示未观测到的硬币A的0,1序列。
考虑用极大似然估计求模型参数θ^=(π,p,q)的, 即:
L(θ)=logP(Y∣θ)=logZ∑P(Y,Z∣θ)=j=1∑10logi=1∑2P(yj,zi∣θ)(1)
θ^=argθmaxL(θ)(2)
直接求(2)的参数θ会比较困难,因为上式存在隐含随机变量Z。如果Z是个已知的数,那么使用极大似然估计来估算会很容易。在这种Z不确定的情形下,EM算法就派上用场了。
EM推导背景
对于式子1,我们做如下变形:
L(θ)=j=1∑10logi=1∑2P(yj,zi∣θ)=j=1∑10logi=1∑2Dj(zi)Dj(zi)P(yj,zi∣θ)(3)≥j=1∑10i=1∑2Dj(zi)logDj(zi)P(yj,zi∣θ)(4)
其中,对于每个实例i,用Di表示样本实例隐含变量z的某种分布,且Di满足条件∑zDi(z)=1,Di(z)≥0。由于对数函数是凹函数,则根据詹森不等式可以从(3)缩放为(4)。
具体来说,问题简化为如何求解随机变量的期望。假如我们的期望表达式为:
E(x)=∑x∗p(x)
我们可以把(3)式当中的Dj(zi)看上式中的概率p(x),把Dj(zi)P(yj,zi∣θ)看作是Dj(zi)的取值x,可以得到:
Z∑Dj(zi)Dj(zi)P(yj,zi∣θ)
就是Dj(zi)P(yj,zi∣θ)的期望。经过詹森不等式变形之后,就得到了式子(4),于是似然函数L(θ)可以简写成:
L(θ)≥J(z,D)(5)
的形式,那么:
我们可以不断优化L(θ)的下界J(z,D)来达到优化L(θ)的目的。
现在有了两个问题:
1,式子(5)什么时候取等?
在詹森不等式中说到,当自变量X=E(X)时,即为常数的时候,等式成立。也就是:
Dj(zi)P(yj,zi∣θ)=c(6)
2,D函数怎么来的?
前面提到∑zDi(z)=1,则有以下的推导过程:
P(yj,zi∣θ)=Dj(zi∣θ)cZ∑P(yj,zi∣θ)=Z∑Dj(zi∣θ)c
Z∑P(yj,zi∣θ)=c(7)
将(7)代入(6)得到:
Dj(zi)=Z∑P(yj,zi∣θ)P(yj,zi∣θ)=P(yj∣θ)P(yj,zi∣θ)=P(zi∣yj,θ)
所以D函数本质上是隐变量z的后验概率:
Dj(zi)=P(zi∣yj,θ)
到此为止,我们对式子(1)、(5)有了更多的了解,也就是有:
L(θ)≥J(z,D)=j=1∑10i=1∑2Dj(zi)logDj(zi)P(yj,zi∣θ)=j=1∑10i=1∑2P(zi∣yj,θ)logP(zi∣yj,θ)P(yj,zi∣θ)
将上面的式子一般化可以得到:
L(θ)≥Z∑P(Z∣Y,θ(i))logP(Z∣Y,θ(i))P(Y,Z∣θ)=Z∑P(Z∣Y,θ(i))logP(Z∣Y,θ(i))P(Y∣Z,θ)P(Z∣θ)(8)
了解了上面的基础知识,下面就可以了解实际的EM算法了。
EM算法步骤
输入: 观测变量数据Y,隐变量数据Z,联合分布P(Y,Z∣θ),条件分布P(Z∣Y,θ)
输出: 模型参数θ
1,选择参数的初值θ(0),开始迭代
2,E步:记θ(i)为第 i 次迭代参数θ的估计值,在第i+1次迭代的E步,计算
Q(θ,θ(i))=Z∑P(Z∣Y,θ(i))logP(Y,Z∣θ)
3,M步:求使Q(θ,θ(i))最大化的θ,确定第i+1次迭代的参数估计值
θ(i+1)=argθmaxQ(θ,θ(i))
4,重复2,3两步,直到收敛。
上面的步骤中提到了Q函数,它是指完全数据(Y,Z)的对数似然函数logP(Y,Z∣θ)关于给定观测数据Y的当前参数θ(i)下,对观测数据Z的条件概率分布P(Z∣Y,θ(i))的期望表达式。
也就是说对于期望函数E(x)=∑x∗p(x)而言,logP(Y,Z∣θ) 是x,P(Z∣Y,θ(i)) (也就是上一节提到的D函数)是p(x)。
要注意的是,Q(θ,θ(i))中的θ表示是要极大化的参数。EM算法,或者说期望最大化算法的两个步骤实际在:
- 给定θ(i)后,求期望的表达式,也就是Q函数的具体形式(先优化Z)
- 求得到的Q函数(期望表达式)取到极大值的新参数θ(i+1) (再优化θ)
EM算法的导出
为什么EM算法能近似实现对观测数据的极大似然估计?Q函数又是怎么来的?
我们知道:
L(θ)=logP(Y∣θ)=logZ∑P(Y,Z∣θ)=log(Z∑P(Y∣Z,θ)P(Z∣θ))
那么有:
L(θ)−L(θ(i))=log(Z∑P(Y∣Z,θ(i))P(Y∣Z,θ(i))P(Y∣Z,θ)P(Z∣θ))−logP(Y∣θ(i))≥Z∑P(Z∣Y,θ(i))logP(Z∣Y,θ(i))P(Y∣Z,θ)P(Z∣θ)−logP(Y∣θ(i))=Z∑P(Z∣Y,θ(i))logP(Z∣Y,θ(i))P(Y∣Z,θ)P(Z∣θ)−Z∑P(Z∣Y,θ(i))logP(Y∣θ(i))=Z∑P(Z∣Y,θ(i))logP(Z∣Y,θ(i))P(Y∣θ(i))P(Y∣Z,θ)P(Z∣θ)
上面式子中的P(Y∣Z,θ(i))就是我们之前讨论的D函数,是为了构造期望, 进而应用詹森不等式,具体是怎么来的也讨论过了,这里不再赘述。
令:
B(θ,θ(i))=L(θ(i))+Z∑P(Z∣Y,θ(i))logP(Z∣Y,θ(i))P(Y∣θ(i))P(Y∣Z,θ)P(Z,θ)
则有:
L(θ)≥B(θ,θ(i))
也就是B(θ,θi) 是L(θ) 的一个下界,又由于:
P(Y,Z∣θ)=P(Y∣Z,θ)P(Z,θ)=P(Z∣Y,θ)P(Y∣θ)
取θ=θ(i) 时等号成立,因为:
B(θ(i),θ(i))=L(θ(i))+Z∑P(Z∣Y,θ(i))logP(Z∣Y,θ(i))P(Y∣θ(i))P(Y∣Z,θ(i))P(Z,θ(i))=L(θ(i))+Z∑P(Z∣Y,θ(i))log1=L(θ(i))
所以,任何可以使B(θ,θ(i)) 增大的θ 都可以使L(θ) 增大。所以为了使L(θ) 尽可能增大,我们选择θ(i+1) 使得B(θ,θi) 尽可能大:
θ(i+1)=argθmaxB(θ,θ(i))=L(θ(i))+Z∑P(Z∣Y,θ(i))logP(Y∣Z,θ(i))P(Y∣θ(i))P(Y∣Z,θ)P(Z,θ)=argθmaxZ∑P(Z∣Y,θ(i))log(P(Z∣Y,θ(i))P(Y∣θ(i))P(Y∣Z,θ)P(Z,θ))=argθmaxZ∑P(Z∣Y,θ(i))log(P(Y∣Z,θ)P(Z,θ))−argθmaxZ∑P(Z∣Y,θ(i))log(P(Z∣Y,θi)P(Y∣θ(i)))=argθmaxZ∑P(Z∣Y,θ(i))log(P(Y∣Z,θ)P(Z,θ))=argθmaxZ∑P(Z∣Y,θ(i))log(P(Y,Z∣θ))=argθmaxQ(θ,θ(i))
上面式子解释了Q函数的由来,并且完成了EM的一次迭代过程,得到了θ(i+1)。上面的推导过程也说明了:EM算法是通过不断求解使得下界B(θ,θi) 极大化的参数θ,来近似求解对数似然函数L(θ)极大值的算法。
下图给出EM算法的直观解释。图中上方曲线为L(θ),下方曲线为B(θ,θ(i))。B(θ,θ(i))为对数似然函数L(θ)的下界。

通过图片我们总结EM算法的迭代过程如下:
(1) 初始状态:在θ=θ(i) 时,L(θ(i))=B(θ(i),θ(i))
(2) EM算法的更新过程:寻找θ(i+1)) 使得B(θ,θ(i))极大化。因为L(θ)≥B(θ,θ(i)),所以得B(θ,θ(i))极大化也使得L(θ) 增加。
(3) 根据第二步找到的θ(i+1)) 重新计算B(θ,θ(i))(或者说重新计算Q函数),进行下一次迭代。
上述过程暴露一个问题:对数似然函数不断增大,但EM算法不能保证找到全局最优解。
EM算法的收敛性
我们已经证明了EM算法的合理性,接下来我们来研究一下算法是否收敛。
要证EM算法的收敛性即证:
P(Y∣θ(i+1))≥P(Y∣θ(i))
同样由:
P(Y,Z∣θ)=P(Y∣Z,θ)P(Z,θ)=P(Z∣Y,θ)P(Y∣θ)
可以得到:
P(Y∣θ)=P(Z∣Y,θ)P(Z,Y∣θ)
两边同取对数:
logP(Y∣θ)=logP(Z,Y∣θ)−logP(Z∣Y,θ)
左右两边同时对P(Z∣Y,θ(i))求期望,则有:
logP(Y∣θ)=Z∑P(Z∣Y,θ(i))logP(Y∣θ)=Z∑P(Z∣Y,θ(i))logP(Z,Y∣θ)−Z∑P(Z∣Y,θ(i))logP(Z∣Y,θ)
其中,∑ZP(Z∣Y,θ(i))=1,logP(Y∣θ) 是与Z无关的变量。
根据Q函数的定义:
Q(θ,θ(i))=Z∑logP(Y,Z∣θ)P(Z∣Y,θ(i))
以及这里我们令:
H(θ,θ(i))=Z∑P(Z∣Y,θ(i))logP(Z∣Y,θ)
所以:
logP(Y∣θ)=Z∑P(Z∣Y,θ(i))logP(Z,Y∣θ)−Z∑P(Z∣Y,θ(i))logP(Z∣Y,θ)=Q(θ,θ(i))−H(θ,θ(i))
进而有:
logP(Y,θ(i+1))−logP(Y,θ(i))=Q(θ(i+1),θ(i)−H(θ(i+1),θ(i))−(Q(θ(i),θ(i))−H(θ(i),θ(i)))=Q(θ(i+1),θ(i))−Q(θ(i),θ(i))−(H(θ(i+1),θ(i))−H(θ(i),θ(i)))
因为θi+1 使得 Q(θ,θ(i)) 增加,所以
Q(θ(i+1),θ(i))−Q(θ(i),θ(i))≥0
所以,我们的目标是证明H(θ(i+1),θ(i))−H(θ(i),θ(i))≤0 ,证明如下:
H(θ(i+1),θ(i))−H(θ(i),θ(i))=Z∑(log(P(Z∣Y,θ(i))P(Z∣Y,θ(i+1))))P(Z∣Y,θ(i))≤log(Z∑P(Z∣Y,θ(i))P(Z∣Y,θ(i+1))P(Z∣Y,θ(i)))=logP(Z∣Y,θ(i+1))=log1=0
不等号由詹森不等式得到。所以:
logP(Y,θ(i+1))−logP(Y,θ(i))≥0P(Y,θ(i+1))−P(Y,θ(i))≥0P(Y,θ(i+1))≥P(Y,θ(i))
证明了EM算法的收敛性。