机器学习--概率图算法--主题模型算法理论
一 主题模型基础认知
1 主题模型的概念
第一点:主题模型是生成式模型
一篇文章的每一个词:文档以一定概率选择某个主题,并从这个主题中以一定概率选择某个词
第二点:主题模型的目的
主题模型可以自动分析每个文档,统计文档内词语,根据统计的信息判断当前文档包含哪些主题以及这些主题所占比例大小
2 主题模型的优点
- 第一点:克服了传统信息检索中文档相似度计算的缺点(如词袋法等忽略语义与语序问题)
- 第二点:从海量的文字中找到文字之间的语义主题(挖掘不同文字内在相同的语义主题)
二 主题模型具体算法
1 潜在语义分析(LSA,是一种基于SVD矩阵分解的主题模型算法)
1)算法原理与流程
第一步:SVD分解
注意:
第一点:m表示词数,n表示文档数,k表示主题数
第二点:含义
-
表示第
个词与第
个文档的相关度(通过IT-IDF计算得到)
-
表示第
个词与第
个主题的相关度
-
表示第
个主题与第
个主题的相关度
-
第
个主题与第
个文档的相关度
第二步:判断文档相似度
- 方式一:在文档主题矩阵
中使用聚类算法
- 方式二:在文档主题矩阵
中使用距离度量公式(余弦相似度、欧式距离等)
2)优缺点
优点
适合小规模数据集且粗粒度找出文档的主题分布
缺点
- SVD矩阵分解效率低
- 很难选择适合的k值
- 不是基于概率的模型,缺乏统计基础,解释性低
2 非负矩阵分解(NMF,是一种基于NMF矩阵分解的主题模型算法)
1)算法原理与流程
第一步:NMF分解
注意:
第一点:m表示词数,n表示文档数,k表示主题数
第二点:含义
-
表示第
个词与第
个文档的相关度(通过IT-IDF计算得到)
-
表示第
个词与第
个主题的概率相关度
-
表示第
个主题与第
个文档的概率相关度
第二步:损失函数(期望矩阵
的乘积结果对应原矩阵
而言,误差尽可能的小)
第三步:使用梯度下降法求解损失函数(共计包含
个参数)
第四步:判断文档相似度
- 方式一:在文档主题矩阵
中使用聚类算法
- 方式二:在文档主题矩阵
中使用距离度量公式(余弦相似度、欧式距离等)
2)模型过拟合解决方案(对损失函数添加正则项)
注意:存在L1正则化项,所以这里采用坐标轴下降法,而非梯度下降法
3)优点
相比于SVD矩阵分解的效率,得到提高
3 隐含狄利克雷分布(LDA,基于贝叶斯网络的主题模型算法)
1)相关概率与统计理论
第一点:先验分布
- 在获取样本
前,对于和样本
有关的参数
已经得到分布函数以及密度函数
- 将
的分布函数以及密度函数,称为先验分布
第二点:后验分布
- 在获取样本X后,对于和样本X有关的参数
,根据
进行重新估计分布函数以及密度函数
- 将
的分布函数以及密度函数,称为后验分布
第三点:共轭分布
- 如果先验分布和后验分布具有相同的分布形式(都是高斯分布或者二项分布等)
- 将先验分布
和似然函数
称为共轭分布
第四点:二项分布(n重伯努利分布)
第五点:多项分布(是二项分布的推广)
注意:
第六点:Beta分布
第七点:狄利克雷分布