Relu浅谈

relu主要的作用是:

1,防止梯度弥散

2,稀疏性

3,加快计算

首先我们看下sigmoid和relu的曲线

Relu浅谈

然后可以得到sigmoid的导数

Relu浅谈

以及relu的导数

Relu浅谈

结论就是sigmoid的导数只有在0附近的时候有比较好的**性,在正负饱和区的梯度都接近于0,所以这会造成梯度弥散,而relu函数在大于0的部分梯度为常数,所以不会产生梯度弥散现象。第二,relu函数在负半区的导数为0 ,所以一旦神经元**值进入负半区,那么梯度就会为0,也就是说这个神经元不会经历训练,即所谓的稀疏性。第三,relu函数的导数计算更快,程序实现就是一个if-else语句,而sigmoid函数要进行浮点四则运算。综上,relu是一个非常优秀的**函数。