邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

学习:

参数学习:给定一组训练样本,求解模型参数 进行参数估计

有向图:

在贝叶斯网络中,所有变量x的联合概率分布可以分解为每个随机变量x_k的局部条件概率的连乘形式

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 无向图:

以对数线性模式为例

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

含隐变量的参数估计

隐变量即变量是不可观测的 图中x为可观测变量 z为不可观测变量

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 高斯混合模型:

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

高斯混合模型难点:因为z是不可观测的,不知道具体那个样本具体来自那个高斯,简单的解法:K-means

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 主要两步

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 含有隐变量的参数估计:期望最大化 Expectation-Maximum 算法 思想首先找一个q(Z)使得KL尽可能为0 然后就最大化ELBO

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 收敛性:

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 GMM Revisit E步

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 M步

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 最后结果

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 图示:

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 K-means vs EM

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

推断:

给定部分变量,推断另一部分变量的后验概率

不同的图模型 推断P(x|y)难度不一样

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 推断分类

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 如何计算边际概率

计算边际概率

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 应用乘法的分配律可以大大减少计算量 变量消去法

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 为了减少重复计算 信念传播算法 Belief Propagation

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 举例:链上传播

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 详细计算

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 链式结构图模型的信念传播过程:

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 更一般的推断:树结构

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3

 近似推断:

邱锡鹏 神经网络与深度学习课程【十五】——概率图模型2和3