全连接层的实现

全连接层的推导

全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。

全连接层的前向计算

下图中连线最密集的2个地方就是全连接层,这很明显的可以看出全连接层的参数的确很多。在前向计算过程,也就是一个线性的加权求和的过程,全连接层的每一个输出都可以看成前一层的每一个结点乘以一个权重系数W,最后加上一个偏置值b得到,即 。如下图中第一个全连接层,输入有5044个神经元结点,输出有500个结点,则一共需要5044*500=400000个权值参数W和500个偏置参数b。
全连接层的实现
下面用一个简单的网络具体介绍一下推导过程
全连接层的实现
其中,x1、x2、x3为全连接层的输入,a1、a2、a3为输出,有全连接层的实现
可以写成如下矩阵形式:全连接层的实现

全连接层计算

h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat,W_fc1) + b_fc1)
输入为7* 7 *64,第一层隐藏层采用1024个神经元
全连接层的实现