2.2.5 Adam优化算法

Adam优化算法

Adam算法的全称是Adaptive Moment Estimation

Adam算法基本上是momentum算法和RMSprop算法的结合。我们下面介绍一下这个算法

2.2.5 Adam优化算法

算法如图所示,注意图中Vdwcorrected表示的是偏差修正。

这个算法中有许多的超参数,那么该如何选择超参数呢?

2.2.5 Adam优化算法

如图所示,学习率是我们需要调整的参数。β1是momentum的超参数,一般设置为0.9。β2的话Adam算法的发明者推荐使用0.999。这里的数一般设置成这个就挺好的了,业内人士很少去改变关于β的参数。还有ε也是如此。

吴教主深度学习和神经网络课程总纲