第一周【任务1】:学习CS224n第一课和课程导学
====== 课程导学 ======
本节所学内容:
作业:
可选作业:
==========================================================
一、深度自然语言处理介绍:
1、自然语言处理为什么这么难?
- 一词多义
- 上下文相关
- 不守语法
- 随时间变化
- 表达的意义信息量很大
- 隐含常识
2、案例:
传统方法就可以做,为什么用深度学习方法?
传统的方法数据量达到一定之后,性能不再增长;而深度学习方法,随着神经网络结构的增加和数据量增大,效果变好。
二、Word2Vec介绍
1.WordNet
2.One-hot
假如字典有十万词,每个列表里就有10万个。表示简单,但很大且无法计算相似度
3.Distributed representation
三、相关概念
- objective function 目标函数 = loss function 损失函数
- one-hot representation 稀疏表达
- distributed representation 分布式表示 / 稠密表达
- (word) embedding (词)嵌入
- bag of words BOW词袋
- word vector 词向量
- word context 词的上下文
- word analogy 词的类比
四、背景知识
-
梯度下降算法
-
语言模型
五、word2vec:
- 无监督学习(输入不需要人工标注)
- 不需要标注怎么学习呢?——压缩自编码。自编码:自己学习自己;压缩:隐层压缩
- 学到的是什么?——wod2vec是结合上下文的,学习的不是词本身的意思,学习的是上文和下文之间的关系,学习的是词与词之间顺序的关系
1、CBOW
2、Skip-gram
3、如何衡量词向量的好坏?
衡量词向量之间的相似程度
余弦距离:两个向量之间的夹角。sim(word1, word2) = cos(wordvec1, wordvec2)
词类比:cos(word1 - word2 + word3, wordvec4)
补充内容
词向量有什么用?
1.词与词之间的关系
2.发现上下位词
3.应用到其他NLP任务上
4.双语单词嵌入
5.图像、文字嵌入
课后作业、思考