深度神经网络-初始化+训练-工程经验
以下内容来源:https://blog.****.net/liyaohhh/article/details/77165483
如果**函数使用sigmoid和tanh,怎最好使用xavir
tf.contrib.layers.xavier_initializer_conv2d

如果使用relu,则最好使用he initial
tf.contrib.layers.variance_scaling_initializer
以下内容来源:https://blog.****.net/liyaohhh/article/details/77165483
如果**函数使用sigmoid和tanh,怎最好使用xavir
tf.contrib.layers.xavier_initializer_conv2d

如果使用relu,则最好使用he initial
tf.contrib.layers.variance_scaling_initializer