CS224n笔记——Word Vectors and Word Senses(二)
系列文章
Lecture 1: Introduction and Word
Lecture 2: Word Vectors and Word Senses
1. 复习word2vec
- 遍历整个语料库中的每个单词
- 用词向量预测上下文
word2vec中参数的计算
- 其中,、分别为上下文单词和中心词,U中有6个单词,V中也有6个单词,每个单词都是5维的
- U和点乘
- softmax,得到上下文单词的概率分布
Word2vec通过在空间中放置相似的词来最大化目标函数
2. 优化
梯度下降(GD)
-
更新方程 (以矩阵形式表示)
-
更新方程 (对于单个参数)
问题: 是语料库中所有窗口的函数(可能是数十亿!),所以的计算代价十分昂贵,而且你可能等很久才有一次更新
解决方法:****随机梯度下降(SGD),在每一次的sample窗口内更新一次
- 迭代地在每个这样的窗口为SGD取梯度,但是在每个窗口中,我们最多只有2m + 1个单词,所以非常稀疏(会有很多的0元素),我们只能更新出样本中出现的向量,如图:
加负采样的skip-gram模型
对于这个公式,我们可以看出来,归一化时分母需要对整个语料进行计算,这是非常昂贵的。
负采样算法将问题变成了二分类问题:即给定两个词,预测这两个词是否应该在一起
Distributed Representations of Words and Phrases and their Compositionality” (Mikolov et al. 2013),该论文中给出的目标函数为:
其中这里的是sigmiod函数,即
这里优化目标函数,是使其最大化
改进后的目标函数为:
- 取k个负样本
- 使真实的上下文单词出现的概率最大化
- 使用unigram分布来选负样本词,其中,分母Z是用于归一化,以使所有的词被选取的概率和等于一,通过这种方式,减少你采样中非常常见的单词,使频率较低的单词(稀有词)被更频繁地采样,unigram分布:
实质:每次让一个训练样本只更新部分权重,其他权重全部固定,减少计算量
对于负采样的详细介绍,可以参考下面这几篇文章:
https://blog.****.net/ningyanggege/article/details/87869393
https://www.cnblogs.com/cloud-ken/p/9556278.html
https://www.imooc.com/article/29453
https://blog.****.net/itplus/article/details/37998797
3. 基于统计的词向量
词向量目的:希望通过低维稠密向量来表示词的含义
课程中举了一个例子:三个句子,比如对于like这个词,在三个句子中,其左右共出现2次I,1次deep和1次NLP,所以like对应的词向量中,I、deep和NLP维的值分别为2,1,1。
不足点
但这些预训练模型也存在不足:
- 词梳理很多时,矩阵很大,维度很高,需要的存储空间也很大
- 当词的数目是在不断增长,则词向量的维度也在不断增长
- 矩阵很稀疏,即词向量很稀疏,会遇到稀疏计算的问题
https://pdfs.semanticscholar.org/73e6/351a8fb61afc810a8bb3feaa44c41e5c5d7b.pdf
上述链接中的文章对例子中简单的计数方法进行了改进,包括去掉停用词、使用倾斜窗口、使用皮尔逊相关系数等,提出了COALS模型,该模型得到的词向量效果也不错,具有句法特征和语义特征。
4. GloVe
GloVe的全称是GloVe: bal Vectors for Word Representation
是这门课的老师Christopher D. Manning的研究成果
GloVe目标是综合基于统计和基于预测的两种方法的优点。
模型目标:词进行向量化表示,使得向量之间尽可能多地蕴含语义和语法的信息
流程:输入语料库–> 统计共现矩阵–> 训练词向量–>输出词向量
构建统计共现矩阵X
i表示上下文单词
j表示在特定大小的上下文窗口(context window)内共同出现的次数。这个次数的最小单位是1,但是GloVe不这么认为:它根据两个单词在上下文窗口的距离dd.
提出了一个衰减函数(decreasing weighting):用于计算权重,也就是说距离越远的两个单词所占总计数(total count)的权重越小。
构建词向量和共现矩阵之间的关系
其中, 和 是我们最终要求解的词向量;和分别是两个词向量的bias term
那它到底是怎么来的,为什么要使用这个公式?为什么要构造两个词向量 和 ?
有了上述公式之后,我们可以构建Loss function:
loss function的基本形式就是最简单的mean square loss,只不过在此基础上加了一个权重函数,那么这个函数起了什么作用,为什么要添加这个函数呢?我们知道在一个语料库中,肯定存在很多单词他们在一起出现的次数是很多的(frequent co-occurrences),那么我们希望:
- 这些单词的权重要大于那些很少在一起出现的单词,因此这个函数要是非递减函数(non-decreasing);
- 但这个权重也不能过大,当到达一定程度之后当不再增加;
- 如果两个单词没有在一起出现,也就是,那么他们应该不参与到loss function的计算当中去,也就是f(x)要满足f(x)=0
为此,作者提出了以下权重函数:
实验中作者设定,并且发现时效果比较好。