分词算法模型学习笔记(一)——HMM
分词算法模型学习笔记(一)——HMM
Hidden Markov Model(HMM,隐马尔科夫模型)
主要参考资料:52nlp
1.HMM的特点
生成式模型
主要研究观察序列X和隐藏状态序列Y的联合概率分布P(X,Y)
通常为一阶马尔卡夫过程(即当前状态的概率分布只跟前一个状态有关)
HMM模型图示
2.HMM的三个基本用途
1.评估(比如语音识别)
计算某一观测序列X的出现概率
典型加速算法:前向算法、后向算法
2.解码(比如分词和词性标注)
对于某一观测序列X计算出使其出现概率最大的隐藏状态序列Y
典型加速算法:维特比算法
3.参数学习
基于EM算法的加速算法:前向-后向算法(Baum-Welch算法)
3.前向算法
计算目标:
如果直接利用上面的式子进行编程计算,需要枚举y的所有取值(假设隐藏状态数目为|S|,y则有
下来我们考虑引入一个新的中间状态——通常称它为局部概率,从而避免大量不必要的计算(典型的动态规划策略)
这个局部概率的含义可以解释为在对于所有以t时刻
算法步骤(时间复杂度为O|S|2T ):
- 定义局部概率的初始值(边界值)
- 利用状态转移方程迭代计算当t=1,···,T-1时的局部概率值
- 利用计算好了的局部概率值,得到我们的最终目标
具体图例(隐藏状态数|S|=3,序列总长度T=4,t=1):
4.后向算法
后向算法的局部概率定义刚好跟前向算法恰好相反(值得注意的是前向算法使用的是联合概率,后向算法使用的是条件概率),但它们要解决的问题是一样的。
其含义可以解释为在对于所有以t时刻
算法步骤(时间复杂度为O|S|2T ):
- 定义局部概率的初始值(边界值)
- 利用状态转移方程迭代计算当t=T-1,···,1时的局部概率值
- 利用计算好了的局部概率值,得到我们的最终目标
具体图例(隐藏状态数|S|=3,序列总长度T=4,t=3):
5.维特比算法
计算目标:
同样地,为了避免枚举所有可能取值的y,需要采取动态规划策略,引入中间状态
这个局部概率的含义可以解释为在所有以t时刻
同时因为要求的是这个概率值最大的隐藏状态序列本身,而不是它的概率值,因此还需要一个回退指针变量
算法步骤(时间复杂度为O|S|2T ):
- 定义局部概率的初始值(边界值)
- 利用状态转移方程迭代计算当t=1,···,T-1时的局部概率值
- 利用计算好了的局部概率值,确定回退起点
- 利用回退指针变量
ψ ,逐个确定目标序列(t = T-1,···,1)
具体图例(隐藏状态数|S|=3,序列总长度T=4):
6.前向-后向算法
未完待续。。。