NLP-CS224n学习讲义PART 1——Word Vector 1: Introduction, SVD and Word2vec

1 介绍NLP

1.1 NLP有什么特别之处?

人类的语言是一个专门用来传达意思的系统,而不是由任何一种物质表现所产生的。在这方面,它与视觉或其他任何机器学习任务有很大区别。

大多数单词只是语言外实体的符号,而语言符号可以被编码成多种形式,比如声音、手势、文字等连续的信号。

1.2 NLP任务举例

从语音处理到语义解释和语篇处理,自然语言处理任务的level是不同的。不同level如下:

简单:

  • 拼写检查
  • 关键词搜索
  • 同义词搜索

中等:

  • 解析来自网站、文档等的信息

困难:

  • 机器翻译(英译汉)
  • 语义分析(查询语句的意思)
  • 共指关系(比如“他”或“它”指的是否为给定的文档)
  • 问题回答

1.3 如何表示单词

所有NLP的首要任务是要将单词转换为能够放到计算机模型的一种输入表示。许多早期的NLP工作将单词视为原子符号。

为了在大多数NLP任务中能够得到良好的性能,我们首先需要对单词之间的相似性和差异性有一些概念。那么我们可以使用word vectors,有了这些vectors,那么words之间的相似性和差异就能很好的表示出来了(比如使用Jaccard, Cosine, 欧拉距离等衡量),为什么呢?我们接下来仔细谈。

2 Word Vectors

上面说到有了word vectors,那么words之间的相似性和差异就能很好的表示出来。所以接下来主要认识一下NLP中非常核心的知识——Word Vectors

我们知道世界上英语单词的数量是及其巨大的,但这些单词与单词之间难道就没有什么关联吗?很明显是有的,比如Friday和Wednesday之间就有“周几”的一个关联,还比如hotel和motel都有旅店的意思,所以是相似的。因此为了表示这种单词之间的关联,我们希望能够将单词编码成向量表示,从而可以表示为一个空间中的某个点(这样点与点之间就可以通过距离进行衡量了是吧)

最简单也非常常用的编码表示就是one-hot vector:将每个单词表示为一个KaTeX parse error: Undefined control sequence: \cal at position 1: \̲c̲a̲l̲ ̲R^{|V|\times1}向量,V|V|表示字典中词汇的个数。如果这个单词排第一个,则r1=1r_1 = 1,其余全为0。

NLP-CS224n学习讲义PART 1——Word Vector 1: Introduction, SVD and Word2vec

但是这种表示方式的缺点就是不能够直接显示单词的相似性,比如hotel和motel其实是相似的,但是相乘之后得到0,,完全不能够知道它们之间有什么关联吧。

NLP-CS224n学习讲义PART 1——Word Vector 1: Introduction, SVD and Word2vec

3 基于SVD的方法

首先,我们介绍一下SVD,即大名鼎鼎的奇异值分解。一个矩阵X可以分解为USVTUSV^T,然后我们使用UU的行数作为字典中单词的嵌入维数。说到奇异值分解,就有一种机器学习方法往往与其密切相关,即降维,而单词的嵌入不就是降维嘛。

3.1 Word-Document矩阵

我们可以有一个猜测:相似的单词往往会出现在相同的文档中,所以可以根据这个猜测构建一个Word-Document矩阵,构建方式如下:循环遍历数十亿个文档,每当文档jj中出现了单词ii,我们就在条目XijX_{ij}中加一。

3.2 基于Window的Co-occurrence矩阵

初看这里的Co-occurrence我是不明白什么意思的,翻译为“同现关系、词汇同现”,在这个方法中,我们计算每个单词在一个特定大小的窗口中出现的次数。举个文档中的例子就明白了,我们有如下的句子:

  1. I enjoy flying.
  2. I like NLP.
  3. I like deep learning.

也就是说I与enjoy相邻出现的次数是1,而与like相邻出现的次数是2,那么最后的矩阵如下所示:

NLP-CS224n学习讲义PART 1——Word Vector 1: Introduction, SVD and Word2vec

3.3 使用SVD进行词汇嵌入

可由上面两种方式得到的矩阵,接下来我们进行真正的奇异值分解,从而进行降维。具体SVD的方法推荐这位博主的文章:奇异值分解(SVD)原理详解及推导

XX运用SVD之后,选择前k个奇异向量进行降维,这样就得到了k维的词向量。

4 基于迭代的方式——Word2vec

上面我们整理的主要是一种需要存储全局信息的方法,而这个对于庞大的语言数据是具有非常大的挑战的。我们能否局部进行学习,即根据某个词汇的上下文(context)来编码这个词的出现概率。

那么接下来进入NLP中非常重要的方法——Word2vec,我们可以试图顾名思义一下,就是说这个方法涉及到两种单词的向量,那这两种单词是什么呢?上面提到想要通过某个词汇的上下文进行局部学习,那么可以猜想这两种单词就是当前单词与其邻近的单词

具体而言,Word2vec是一种软件包,其包括:

  • 2种算法:continuous bag-of-words(CBOW)和skip-gram
  • 2种训练方式:negative sampling和hierarchical softmax

4.1 语言模型(Unigrams, Bigrams等)

对于一个句子的合理性,我们可以通过概率来表示,如果一个句子中含有n个单词即序列w1,w2,...,wnw_1, w_2, ..., w_n,那么概率 P(w1,w2,...,wn)P(w_1, w_2, ..., w_n) 的大小就表示此句子的合理性。如果假定单词之间的出现是完全独立的,那么

P(w1,w2,...,wn)=i=1nP(wi)P(w_1, w_2, ..., w_n) = \prod_{i=1}^nP(w_i)

但这是不切实际的,因为相邻的单词之间明显是有联系的,并不是独立的,所以可以让这个序列的概率依赖于序列中一个单词及其旁边的单词的成对概率,那么

P(w1,w2,...,wn)=i=2nP(wiwi1)P(w_1, w_2, ..., w_n) = \prod_{i=2}^nP(w_i|w_{i-1})

4.2 Continuous Bag-of-Words(CBOW)

核心思想是根据上下文词来预测中心词。比如给定上下文词汇{“The”, “cat”, ’over", “the’, “puddle”},我们来预测其中心词"jumped”。下面一张图也非常的直观,而连续的词袋意思就是上下文对应的词有8个,前后各4个,这8个词相当于在一个“袋子”中。

算法过程如下:

  1. 首先对于大小为m的词袋,我们先产生one-hot词向量:

    (x(cm),...,x(c1),x(c+1),...,x(c+m)RV)(x^{(c-m)}, ..., x^{(c-1)}, x^{(c+1)}, ..., x^{(c+m)} \in R^{|V|})

  2. 我们将这些词向量嵌入到n维向量中:

    KaTeX parse error: Undefined control sequence: \cal at position 12: (v_{c-m} = \̲c̲a̲l̲ ̲Vx^{(c-m)}, ...…