隐马尔科夫模型HMM(Hidden Markov Model)学习
在深度学习领域,我们学习了深度神经网络、RNN、LSTM、Seq2Seq等时序模型, 机器学习的隐马尔科夫模型HMM(Hidden Markov Model)也是关于时序的概率模型,在语言识别,强化学习等领域应用较广,HMM的网络及概念可以借鉴深度神经网络的原理方法来理解,本文从李航《统计学习方法》书中例举的盒子与球的例子来学习HMM的基本概念。
HMM模型中Q是所有可能的隐藏状态的集合,V是所有可能的观测状态的集合:Q={q1,q2,...,q},V={v1,v2,...vM},N是隐藏状态数,M是观察状态数。对于一个长度为T的序列,I对应的状态序列(类似RNN中的状态s), O是对应的观察序列(类似RNN的预测输出序列),I={i1,i2,...,iT},O={o1,o2,...oT} it∈Q , ot∈V
HMM模型的两个基本假设:
1) 齐次马尔科夫链假设。任意时刻的隐藏状态只与前一个隐藏状态相关 。
2) 观测独立性假设。任意时刻的观察状态只与当前时刻的隐藏状态相关。
HMM模型由隐藏状态初始概率分布Π, 状态转移概率矩阵A和观测状态概率矩阵B决定。Π,A决定状态序列,B决定观测序列。HMM模型可以由一个三元组λ表示:λ=(A,B,Π)
HMM模型盒子与球实例:
如果有3个盒子,每个盒子里分别放有红球和白球,盒子里红球、白球的数量如下表,现在分别从盒子里取球,假设从第一个盒子取球的概率为0.2,从第二个盒子取球的概率是0.4,从第三个盒子取球的概率是0.4,取球以后将球放回。
球数 | 盒子一 | 盒子二 | 盒子三 |
红球数 | 5 | 4 | 7 |
白球数 | 5 | 6 | 3 |
这里取3次球,取球的规则如下:
如果当前取的是第一个盒子,则接下来随机在三个盒子中取球的概率是,第一个盒子0.5,第二个盒子0.2,第三个盒子0.3;
如果当前取的是第二个盒子,则接下来随机在三个盒子中取球的概率是,第一个盒子0.3,第二个盒子0.5,第三个盒子0.2;
如果当前取的是第三个盒子,则接下来随机在三个盒子中取球的概率是,第一个盒子0.2,第二个盒子0.3,第三个盒子0.5;
依次取到3个球,得到的球观测序列的颜色为: O={红,白,红}。HMM模型中盒子与球的概念如图所示。
喜欢我们发布的信息,就在右下角点一下“好看”吧!
欢迎转发分享!