李宏毅training DNN(lecturte9-1 )课堂笔记

 deep learning效果不好,从哪些方面做改进呢?

李宏毅training DNN(lecturte9-1 )课堂笔记得到一个神经网络,检查在training data上的表现,好的话检查在testing data上表现。

testing data上表现不好,不一定是过拟合,要结合training data上表现。

改进方法:dropout可以在测试集上取得较好结果

layer越深很可能发生梯度消失问题李宏毅training DNN(lecturte9-1 )课堂笔记

引入李宏毅training DNN(lecturte9-1 )课堂笔记

采用李宏毅training DNN(lecturte9-1 )课堂笔记相当于李宏毅training DNN(lecturte9-1 )课堂笔记

 

Maxout可能能学习选择哪种**函数

原理:李宏毅training DNN(lecturte9-1 )课堂笔记        

理解为:李宏毅training DNN(lecturte9-1 )课堂笔记(变成relu例子),李宏毅training DNN(lecturte9-1 )课堂笔记(变成别的)

优缺点:李宏毅training DNN(lecturte9-1 )课堂笔记

maxout可以train吗:李宏毅training DNN(lecturte9-1 )课堂笔记(可以,选定之后小的项可以看做忽略),就是这样李宏毅training DNN(lecturte9-1 )课堂笔记

 

 

变成李宏毅training DNN(lecturte9-1 )课堂笔记(就可以gradient descent了)

 

RMSProp算法核心思想:梯度小的地方步伐大,梯度大的地方步伐小。理论:李宏毅training DNN(lecturte9-1 )课堂笔记

momentum理解李宏毅training DNN(lecturte9-1 )课堂笔记(类似于物理世界中,引入惯性,绿色箭头就表示惯性下球应该走的方向)

 一般情况下传统梯度下降李宏毅training DNN(lecturte9-1 )课堂笔记,momentum下考虑前一次gradient方向李宏毅training DNN(lecturte9-1 )课堂笔记

 

 

overfitting后怎么可以提高测试集正确率呢?引入验证集,将训练集分组。或者,regularization(正则化)

李宏毅training DNN(lecturte9-1 )课堂笔记----------李宏毅training DNN(lecturte9-1 )课堂笔记李宏毅training DNN(lecturte9-1 )课堂笔记

 

dropout:

 李宏毅training DNN(lecturte9-1 )课堂笔记每次sample丢弃一些参数李宏毅training DNN(lecturte9-1 )课堂笔记注意,每次sample神经元不同

李宏毅training DNN(lecturte9-1 )课堂笔记注意,测试时没有dropout,并要根据dropout率修改weight值李宏毅training DNN(lecturte9-1 )课堂笔记

dropout好处理解李宏毅training DNN(lecturte9-1 )课堂笔记李宏毅training DNN(lecturte9-1 )课堂笔记只有network是linear时成立