**函数学习

 

参考

知乎:

深度学习基础篇:如何选择正确的**函数? https://zhuanlan.zhihu.com/p/30510596

**函数学习

这里有点问题,死神经永远不会被**吗?

 

 

如何选择正确的**函数?

现在我们已经了解了这么多的**函数,接下来就需要分析在哪种情况下应该使用哪种**函数了。**函数好或坏,不能凭感觉定论。然而,根据问题的性质,我们可以为神经网络更快更方便地收敛作出更好的选择。

  • 用于分类器时,Sigmoid函数及其组合通常效果更好。
  • 由于梯度消失问题,有时要避免使用sigmoid和tanh函数。
  • ReLU函数是一个通用的**函数,目前在大多数情况下使用。
  • 如果神经网络中出现死神经元,那么PReLU函数就是最好的选择。
  • 请记住,ReLU函数只能在隐藏层中使用。(为什么只能用在隐藏层中?)

 

一点经验:你可以从ReLU函数开始,如果ReLU函数没有提供最优结果,再尝试其他**函数。

 

这一篇写的很好

[Deep Learning] 常用的Active functions & Optimizers  https://www.cnblogs.com/maybe2030/p/9220921.html

**函数学习