**函数简介
**函数简介
本文意在干脆地写明白**函数的优缺点
sigmoid **函数
Sigmoid :
优点
- 将变量映射到 [0,1]
- Logistic函数的特例
- 可用于二分类
- 因可解释为神经元的饱和激发率(firing rate) ,历史上比较流行
问题
- 饱和神经元会“kill” 梯度(引起梯度消失)
- Sigmoid输出不是零中心的
- exp() 运算导致计算较复杂
tanh**函数
tanh :
优点
- 将变量映射到 [-1,1]
- 输出零中心
问题
- 饱和神经元仍然会“kill” 梯度
ReLu**函数
ReLu :
优点
- 在???? > 0时保持梯度不衰减,从而缓解梯度消失问题
- 计算效率高
- 实际应用中比sigmoid/tanh收敛速度快很多
问题
- 输出非零中心
- ???? < 0无梯度,会导致权重无法更新
Leaky ReLu**函数
Leaky ReLu :
优点
- 避免ReLU可能出现的神经元“死亡”现象
Softmax**函数
- Softmax是一种特殊的**函数,其输出总和为1
- 利用Softmax函数将线性预测值转换为多类别对应的概率
Softmax :
Softmax其实就是先对每一个 取指数变成非负,然后除以所有项之和进行归一化
值得一提的此方法与交叉熵的结合,损失函数简介
---------------------------------------------------------以下是更新的经验-------------------------------------------------------------