NLP with Deep Learning Lecture 2 笔记
本篇是学习斯坦福公开课”Natural Language Processing with Deep Learning”时的笔记。
包含leture2的内容。
1. Word2Vec的含义
一个单词,神经网络理解不了,需要人转换成数字再喂给它。最naive的方式就是one-hot,但是太过于稀疏,不好。所以在改进一下,把one-hot进一步压缩成一个dense vector。
word2vec算法就是根据上下文预测单词,从而获得词向量矩阵。
预测单词的任务只是一个幌子,我们需要的结果并不是预测出来的单词,而是通过预测单词这个任务,不断更新着的参数矩阵weights。
预测任务由一个简单的三层神经网络来完成,其中有两个参数矩阵
最后需要的词向量矩阵是将两个词向量矩阵相加 =
2 两种实现方法
2.1 Skip-Gram
训练任务:根据中心词,预测出上下文词
输入:一个中心词(center word,
参数:一个look up table
输出:T个上下文词(context word,
损失函数:cross-entropy -
详细步骤:
Skip-Gram步骤图:
2.2 CBOW
与Skip-Gram相反,是通过完成上下文词预测中心词的任务来训练词向量的。
训练任务:根据上下文词,预测出中心词
输入:
参数:一个look up table
输出:一个中心词(center word,
损失函数:cross-entropy -
详细步骤:
CBOW步骤图:
3. 两种优化方法
3.1 Negative Sampling
以下内容基于Skip-Gram模型。CBOW同理。
原始的方法中使用softmax()将z转化成
代替的方法是“负采样”。即从一个特定分布中,随机取出k个words来代表整个corpus。k个words和中心词(center word)组成成为noise pairs,上下文词(context words)和中心词(center word)组合成为true pairs。
这样一来,需要改变loss function为:
注:
如果true pair出现的概率越大,noise pairs出现的概率越小,则这个loss会减小,满足loss的定义,所以可以把loss表示成如上公式。
3.2 Hierarchical Softmaxg
待续……
4. 两种求导
以下内容基于Skip-Gram模型。CBOW同理。
模型要学习的是两个参数矩阵
4.1 Naive Softmax bp
首先,对
其次,对
Forward如下,只考虑一对pair:
Back Propagate如下:
定义几个reused项:
这一项很好求,
然后对
提示:可以先大概的写出链式求导的几个项,然后根据维度进行组合。
接着对
4.2. Negative Sampling bp
首先,对
其次,对U求梯度,对
Forward如下,只考虑一对true pair:
Back Propagate如下:
对
同理,对
同理,对
然后其余
最后整理得: