深度学习技术在自然语言处理中的应用综述-1

本教程从自然语言处理研究及应用的角度对神经网络模型进行了全面概述,以期使自然语言处理技术能够更快的使入门者掌握。 该教程涵盖了自然语言基础概述、卷积网络、循环、递归网络以及模型变种及相关应用。

目录

概述

参考文献

概述

        自然语言处理(Natural language processing,NLP)是一种基于智能理论的计算技术,是指对人类语言进行自动分析和表示的计算技术[1,5]。NLP 研究从打孔纸带和批处理的时代就开始发展,之后的发展过程中,随着计算机技术的发展,分析一个句子需要多达 7 分钟的时间。到了现在超级计算机、超强CPU、GPU高性能芯片时代,数百万网页可以在不到一秒钟内处理完成。NLP技术可以使计算机能够在各个层面执行自然语言处理相关的任务,如句子结构解析、词性标注、机器翻译和对话系统等。

       然而深度学习技术已经在计算机视觉和模式识别等领域取得了令人瞩目的发展,为上述领域带来了巨大的进步。紧跟这一趋势,近年来有关NLP的研究越来越多地关注于应用新的深度学习方法(见图 1)。过去十几年里,针对NLP问题的解决,一直都是基于高维度、特(别)稀疏词嵌入(one-hot等)的基础上训练浅层模型(例如SVM和logistic回归等)。而近年来,基于稠密型向量特征表示的神经网络方法在多种 NLP 任务上得到了不错结果。这一趋势是由词嵌入特征(word embeddings)[2,3]和深度学习方法相互作用共同取得的成功。深度学习技术使多层级自动特征表征与特征提取成为可能。相比之下,传统的机器学习方法在解决NLP任务上很大程度的依赖于人工制作的特征工程。这些人工制作的特征工程(向量)往往需要消耗大量的人力、物力,且需要语言专家的支持,否则特征工程的设计与引入将给模型带来巨大的噪声。

深度学习技术在自然语言处理中的应用综述-1
图 1

Ronan Collobert 等人[4] 在2011 年的研究中《Natural Language Processing (Almost) from Scratch》展示了深度学习模型在多个 NLP 任务上取得的不错实验结果,比如命名实体识别(NER)、语义角色标注(SRL)和词性标注(POS tagging)等。之后,更多的研究人员提出了大量基于复杂深度学习算法的模型用于解决有难度的 NLP 任务。本文接下来将综述用于自然语言处理任务的经典深度学习模型和方法,比如如卷积神经网络、循环神经网络和递归神经网络。本文还将讨论记忆增强策略、注意力机制,以及无监督模型、强化学习方法和深度生成模型在解决自然语言处理任务中的具体应用。

接下来的文章内容如下:

第二篇介绍各种经典的词嵌入特征,它们是自然语言处理任务入门的基础。

第三篇介绍卷积神经网络及其在自然语言处理中的应用。

第四篇介绍循环神经网络、注意力机制、transformer模型等,该模型天然适合很多 NLP 任务,因为其输出依赖于之前的计算结果。

第五篇介绍递归神经网络。

第六篇介绍经典神经网络的变种及优化后的模型,比如IndRNN、DRSN等。

第七篇介绍强化学习在 NLP 中的近期应用,以及无监督句子表征学习的近期发展,深度生成模型等。

第八篇介绍基于深度学习所解决的 NLP 任务及其当前应用性能及标准数据集上的性能分析。

敬请关注!

参考文献

1.Cambria E , White B . Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article][J]. IEEE Computational Intelligence Magazine, 2014, 9(2):48-57.

2.Mikolov T , Martin Karafiát, Burget L , et al. Recurrent neural network based language model[C]// Interspeech, Conference of the International Speech Communication Association, Makuhari, Chiba, Japan, September. DBLP, 2015.

3.Luong T , Socher R , Manning C D . Better Word Representations with Recursive Neural Networks for Morphology[C]// Proceedings of the Conference. 2013.

4.Collobert R , Weston J , Bottou, Léon, et al. Natural Language Processing (almost) from Scratch[J]. Journal of Machine Learning Research, 2011, 12(1):2493-2537.

5.Goldberg Y . A Primer on Neural Network Models for Natural Language Processing[J]. Computer ence, 2016.