《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

学习地址:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV/jupyter/iyipD6HVEY_JSTscoKRTg

机器翻译及相关技术

机器翻译和数据集

机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。

数据预处理

将数据集清洗、转化为神经网络的输入minbatch

分词

字符串---单词组成的列表

建立词典

单词组成的列表---单词id组成的列表

载入数据集

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

Encoder-Decoder

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

Sequence to Sequence模型

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

Beam Search

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

 

注意力机制与Seq2seq模型

注意力机制

在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态。将源序列输入信息以循环单位状态编码,然后将其传递给解码器以生成目标序列。然而这种结构存在着问题,尤其是RNN机制实际中存在长程梯度消失的问题,对于较长的句子,我们很难寄希望于将输入的序列转化为定长的向量而保存所有的有效信息,所以随着所需翻译句子的长度的增加,这种结构的效果会显著下降。

与此同时,解码的目标词语可能只与原输入的部分词语有关,而并不是与所有的输入有关。例如,当把“Hello world”翻译成“Bonjour le monde”时,“Hello”映射成“Bonjour”,“world”映射成“monde”。在seq2seq模型中,解码器只能隐式地从编码器的最终状态中选择相应的信息。然而,注意力机制可以将这种选择过程显式地建模。

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

注意力机制框架

Attention 是一种通用的带权池化方法,输入由两部分构成:询问(query)和键值对(key-value pairs)。????????∈ℝ????????,????????∈ℝ????????. Query ????∈ℝ???????? , attention layer得到输出与value的维度一致 ????∈ℝ????????. 对于一个query来说,attention layer 会与每一个key计算注意力分数并进行权重的归一化,输出的向量o则是value的加权求和,而每个key计算的权重与value一一对应。

为了计算输出,我们首先假设有一个函数α 用于计算query和key的相似性,然后可以计算所有的 attention scores a1,…,an by

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

我们使用 softmax函数 获得注意力权重:

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

最终的输出就是value的加权求和:

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

不同的attetion layer的区别在于score函数的选择,在本节的其余部分,我们将讨论两个常用的注意层 Dot-product Attention 和 Multilayer Perceptron Attention;随后我们将实现一个引入attention的seq2seq模型并在英法翻译语料上进行训练与测试。

Softmax屏蔽

在深入研究实现之前,我们首先介绍softmax操作符的一个屏蔽操作。

点积注意力

The dot product 假设query和keys有相同的维度, 即 ∀i,????,????????∈ℝ????. 通过计算query和key转置的乘积来计算attention score,通常还会除去 d 减少计算出来的score对维度????的依赖性,如下

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

假设 ????∈ℝ????×???? 有 m 个query,????∈ℝ????×???? 有 n 个keys. 我们可以通过矩阵运算的方式计算所有 mn 个score:

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

现在让我们实现这个层,它支持一批查询和键值对。此外,它支持作为正则化随机删除一些注意力权重.

测试

现在我们创建了两个批,每个批有一个query和10个key-values对。我们通过valid_length指定,对于第一批,我们只关注前2个键-值对,而对于第二批,我们将检查前6个键-值对。因此,尽管这两个批处理具有相同的查询和键值对,但我们获得的输出是不同的。

多层感知机注意力

在多层感知器中,我们首先将 query and keys 投影到 ℝℎ .为了更具体,我们将可以学习的参数做如下映射 ????????∈ℝℎ×???????? , ????????∈ℝℎ×???????? , and ????∈ℝh . 将score函数定义

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

. 然后将key 和 value 在特征的维度上合并(concatenate),然后送至 a single hidden layer perceptron 这层中 hidden layer 为 ℎ and 输出的size为 1 .隐层**函数为tanh,无偏置.

测试

尽管MLPAttention包含一个额外的MLP模型,但如果给定相同的输入和相同的键,我们将获得与DotProductAttention相同的输出

总结

  • 注意力层显式地选择相关的信息。
  • 注意层的内存由键-值对组成,因此它的输出接近于键类似于查询的值。

引入注意力机制的Seq2seq模型

本节中将注意机制添加到sequence to sequence 模型中,以显式地使用权重聚合states。下图展示encoding 和decoding的模型结构,在时间步为t的时候。此刻attention layer保存着encodering看到的所有信息——即encoding的每一步输出。在decoding阶段,解码器的t时刻的隐藏状态被当作query,encoder的每个时间步的hidden states作为key和value进行attention聚合. Attetion model的输出当作成上下文信息context vector,并与解码器输入Dt拼接起来一起送到解码器:

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

下图展示了seq2seq机制的所以层的关系,下面展示了encoder和decoder的layer结构

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

解码器

由于带有注意机制的seq2seq的编码器与之前章节中的Seq2SeqEncoder相同,所以在此处我们只关注解码器。我们添加了一个MLP注意层(MLPAttention),它的隐藏大小与解码器中的LSTM层相同。然后我们通过从编码器传递三个参数来初始化解码器的状态:

  • the encoder outputs of all timesteps:encoder输出的各个状态,被用于attetion layer的memory部分,有相同的key和values
  • the hidden state of the encoder’s final timestep:编码器最后一个时间步的隐藏状态,被用于初始化decoder 的hidden state
  • the encoder valid length: 编码器的有效长度,借此,注意层不会考虑编码器输出中的填充标记(Paddings)

在解码的每个时间步,我们使用解码器的最后一个RNN层的输出作为注意层的query。然后,将注意力模型的输出与输入嵌入向量连接起来,输入到RNN层。虽然RNN层隐藏状态也包含来自解码器的历史信息,但是attention model的输出显式地选择了enc_valid_len以内的编码器输出,这样attention机制就会尽可能排除其他不相关的信息。

训练

通过应用相同的训练超参数和相同的训练损失来尝试一个简单的娱乐模型。从结果中我们可以看出,由于训练数据集中的序列相对较短,额外的注意层并没有带来显著的改进。由于编码器和解码器的注意层的计算开销,该模型比没有注意的seq2seq模型慢得多。


Transformer

Transformer的概念以及相对于与传统CNN、RNN的优势 Transformer的实现,Multi-head Attention、FFN、AddNorm还有Encoder、Decoder的代码实现

Transformer

在之前的章节中,我们已经介绍了主流的神经网络架构如卷积神经网络(CNNs)和循环神经网络(RNNs)。让我们进行一些回顾:

  • CNNs 易于并行化,却不适合捕捉变长序列内的依赖关系。
  • RNNs 适合捕捉长距离变长序列的依赖,但是却难以实现并行化处理序列。

为了整合CNN和RNN的优势,[Vaswani et al., 2017] 创新性地使用注意力机制设计了Transformer模型。该模型利用attention机制实现了并行化捕捉序列依赖,并且同时处理序列的每个位置的tokens,上述优势使得Transformer模型在性能优异的同时大大减少了训练时间。

图10.3.1展示了Transformer模型的架构,与9.7节的seq2seq模型相似,Transformer同样基于编码器-解码器架构,其区别主要在于以下三点:

  1. Transformer blocks:将seq2seq模型重的循环网络替换为了Transformer Blocks,该模块包含一个多头注意力层(Multi-head Attention Layers)以及两个position-wise feed-forward networks(FFN)。对于解码器来说,另一个多头注意力层被用于接受编码器的隐藏状态。
  2. Add and norm:多头注意力层和前馈网络的输出被送到两个“add and norm”层进行处理,该层包含残差结构以及层归一化。
  3. Position encoding:由于自注意力层并没有区分元素的顺序,所以一个位置编码层被用于向序列元素里添加位置信息。

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

多头注意力层

在我们讨论多头注意力层之前,先来迅速理解以下自注意力(self-attention)的结构。自注意力模型是一个正规的注意力模型,序列的每一个元素对应的key,value,query是完全一致的。如图10.3.2 自注意力输出了一个与输入长度相同的表征序列,与循环神经网络相比,自注意力对每个元素输出的计算是并行的,所以我们可以高效的实现这个模块。

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

多头注意力层包含h个并行的自注意力层,每一个这种层被成为一个head。对每个头来说,在进行注意力计算之前,我们会将query、key和value用三个现行层进行映射,这h个注意力头的输出将会被拼接之后输入最后一个线性层进行整合。

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

基于位置的前馈网络

Transformer 模块另一个非常重要的部分就是基于位置的前馈网络(FFN),它接受一个形状为(batch_size,seq_length, feature_size)的三维张量。Position-wise FFN由两个全连接层组成,他们作用在最后一维上。因为序列的每个位置的状态都会被单独地更新,所以我们称他为position-wise,这等效于一个1x1的卷积。

与多头注意力层相似,FFN层同样只会对最后一维的大小进行改变;除此之外,对于两个完全相同的输入,FFN层的输出也将相等。

Add and Norm

除了上面两个模块之外,Transformer还有一个重要的相加归一化层,它可以平滑地整合输入和其他层的输出,因此我们在每个多头注意力层和FFN层后面都添加一个含残差连接的Layer Norm层。这里 Layer Norm 与7.5小节的Batch Norm很相似,唯一的区别在于Batch Norm是对于batch size这个维度进行计算均值和方差的,而Layer Norm则是对最后一维进行计算。层归一化可以防止层内的数值变化过大,从而有利于加快训练速度并且提高泛化性能。 (ref)

位置编码

与循环神经网络不同,无论是多头注意力网络还是前馈神经网络都是独立地对每个位置的元素进行更新,这种特性帮助我们实现了高效的并行,却丢失了重要的序列顺序的信息。为了更好的捕捉序列信息,Transformer模型引入了位置编码去保持输入序列元素的位置。

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

编码器

我们已经有了组成Transformer的各个模块,现在我们可以开始搭建了!编码器包含一个多头注意力层,一个position-wise FFN,和两个 Add and Norm层。对于attention模型以及FFN模型,我们的输出维度都是与embedding维度一致的,这也是由于残差连接天生的特性导致的,因为我们要将前一层的输出与原始输入相加并归一化。

现在我们来实现整个Transformer 编码器模型,整个编码器由n个刚刚定义的Encoder Block堆叠而成,因为残差连接的缘故,中间状态的维度始终与嵌入向量的维度d一致;同时注意到我们把嵌入向量乘以根号 d 以防止其值过小。

解码器

Transformer 模型的解码器与编码器结构类似,然而,除了之前介绍的几个模块之外,编码器部分有另一个子模块。该模块也是多头注意力层,接受编码器的输出作为key和value,decoder的状态作为query。与编码器部分相类似,解码器同样是使用了add and norm机制,用残差和层归一化将各个子层的输出相连。

仔细来讲,在第t个时间步,当前输入xt是query,那么self attention接受了第t步以及前t-1步的所有输入x1,…,xt−1。在训练时,由于第t位置的输入可以观测到全部的序列,这与预测阶段的情形项矛盾,所以我们要通过将第t个时间步所对应的可观测长度设置为t,以消除不需要看到的未来的信息。

《动手学深度学习》笔记 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer