神经网络之前向传播

神经网络之前向传播

神经网络通过输入多个“单一”的神经元x1,x2,x3,通过在隐含层的计算,输出你的期望(输出值)hw,b(x),当你的输入和输出是一样的时候,成为自编码模型(Auto-Encoder),而当你输入和输出是不一致的时候,也就是我们常说的人工神经网络。
神经网络之前向传播
注释:+1称为偏置节点,又称为截距(如同直线上的b);
神经网络之前向传播
其中函数f:()称为**函数,常用的**函数为sigmoid函数和tanh函数神经网络之前向传播神经网络之前向传播

神经网络的计算

神经网络之前向传播

我们用 xlx_{l}表示网络的层数,本例中 xlx_{l}=3 ,我们将第ll 层记为LlL_{l},于是L1L_{1} 是输入层,输出层是LnlL_{nl} 。本例神经网络有参数 (W,b)(W,b) = (W(1)(W^{(1)},b(1)b^{(1)},W(2)W^{(2)},b(2))b^{(2)}),其中 Wij(l)W^{(l)}_{ij} (下面的式子中用到)是第 ll 层第 jj 单元与第 l+1l+1 层第 ii单元之间的联接参数(其实就是连接线上的权重,注意标号顺序), bi(l)b^{(l)}_i是第 l+1l+1 层第 ii 单元的偏置项。因此在本例中, W(1)3×3W^{(1)} \in \Re^{3\times 3}W(2)1×3W^{(2)} \in \Re^{1\times 3} 。注意,没有其他单元连向偏置单元(即偏置单元没有输入),因为它们总是输出+1+1。同时,我们用 sls_l 表示第ll 层的节点数(偏置单元不计在内)。

我们用ai(l)a^{(l)}_i表示第ll 层第 ii 单元的**值(输出值)。当 l=1l=1 时, ai(1)=xia^{(1)}_i = x_i ,也就是第ii 个输入值(输入值的第ii 个特征)。对于给定参数集合W,bW,b ,我们的神经网络就可以按照函数hW,b(x)h_{W,b}(x) 来计算输出结果。本例神经网络的计算步骤如下:
神经网络之前向传播
我们用 zi(l)z^{(l)}_i 表示第 ll 层第 ii 单元输入加权和(包括偏置单元),比如,zi(2)=j=1nWij(1)xj+bi(1)ai(l)=f(zi(l))z_i^{(2)} = \sum_{j=1}^n W^{(1)}_{ij} x_j + b^{(1)}_i ,则 \textstyle a^{(l)}_i = f(z^{(l)}_i)

这样我们就可以得到一种更简洁的表示法。这里我们将**函数 f()f(\cdot) 扩展为用向量(分量的形式)来表示,即 f([z1,z2,z3])=[f(z1),f(z2),f(z3)]f([z_1, z_2, z_3]) = [f(z_1), f(z_2), f(z_3)] ,那么,上面的等式可以更简洁地表示为:

z(2)z^{(2)}= W(1)x+b(1)W^{(1)} x + b^{(1)}
a(2)a^{(2)}= f(z(2))f(z^{(2)})
z(3)z^{(3)}= W(2)a(2)+b(2)W^{(2)} a^{(2)} + b^{(2)}
hW,b(x)h_{W,b}(x)= a(3)=f(z(3))a^{(3)} = f(z^{(3)})

我们将上面的计算步骤叫作前向传播。回想一下,之前我们用 a(1)=xa^{(1)} = x 表示输入层的**值,那么给定第 ll 层的**值a(l)a^{(l)}后,第l+1l+1 层的**值a(l+1)a^{(l+1)} 就可以按照下面步骤计算得到:

z(l+1)z^{(l+1)}= W(l)a(l)+b(l)W^{(l)} a^{(l)} + b^{(l)}
a(l+1)a^{(l+1)}= f(z(l+1))f(z^{(l+1)})

将参数矩阵化,使用矩阵-向量运算方式,我们就可以利用线性代数的优势对神经网络进行快速求解。

此文主要根据下面两篇文章学习的一些心得:http://ufldl.stanford.edu/wiki/index.php/神经网络
https://www.2cto.com/net/201708/666276.html