机器学习笔记:HMM(Hidden Markon Model,隐马尔科夫)

格式驾驭不了,图片大小不会改,可以直接看我的有道笔记:http://note.youdao.com/noteshare?id=80bc8ca586fbe13d496147df0e760b6d

隐马尔科夫

  • 关于时序的概率模型
  • 描述一个隐藏的马尔科夫链随机生成不可观测的状态随机序列,再由各个状态生成一个观测而产生观测随机序列过程
  • 状态序列Q
  • 观测序列V
  • 序列的每个位置可看作是一个时刻

 

  • 集合(Q所有可能的状态集合,V所有可能的观测集合):

机器学习笔记:HMM(Hidden Markon Model,隐马尔科夫)

  • 序列(I是长度为T的状态序列,O是对应的观测序列):

机器学习笔记:HMM(Hidden Markon Model,隐马尔科夫)

  • 状态转移概率矩阵:

机器学习笔记:HMM(Hidden Markon Model,隐马尔科夫)

  • 观测概率矩阵:

机器学习笔记:HMM(Hidden Markon Model,隐马尔科夫)

  • 初始状态概率向量:

机器学习笔记:HMM(Hidden Markon Model,隐马尔科夫)

  • 输入隐马尔科夫模型表示:

机器学习笔记:HMM(Hidden Markon Model,隐马尔科夫)

 

隐马尔科夫做了两个基本假设:

  • ①其次马尔科夫性假设。(即假设隐藏的马尔科夫链在任意时刻t的状态只依赖于其前一时刻状态)
  • ②观测独立性假设(任意时刻的观测于其他观测及状态无关)

 

隐马尔科夫模型3个基本问题:

机器学习笔记:HMM(Hidden Markon Model,隐马尔科夫)

  • 概率问题:
  • 前向概率算法:给定隐马尔科夫模型 λ, 定义到时刻 t , 部分观测序列为 o1,o2,...,ot 且状态为 qi 的概率;

机器学习笔记:HMM(Hidden Markon Model,隐马尔科夫)

机器学习笔记:HMM(Hidden Markon Model,隐马尔科夫)

 

 

  • 后向算法:给定隐马尔科夫模型 λ, 定义到时刻 t , 状态为 qi 的条件下, 从 t+1 到 T 的部分 观测序列为 ot+1,ot+2,...,oT 的概率;

机器学习笔记:HMM(Hidden Markon Model,隐马尔科夫)

机器学习笔记:HMM(Hidden Markon Model,隐马尔科夫)

 

  • 学习问题(Baum-Welch即EM算法):

只有输入,没有对应输出。非监督学习

  • 预测问题:

Viterbi算法