深度学习那些事 —前馈计算

在这里先介绍一下小编,现在是研究生一年级,目前研究方向是深度学习,接下来的这段时间由他向大家分享深度学习相关的内容,分享的都是干货。

要解决的问题

首先给了六个样本,六个样本都包括汽车的排量和轴距,分清豪华车和普通车。输入层和输出层分别为两个节点,输入层两个节点是排量和轴距,输出层两个节点是豪华车和普通车。这是一个二分类问题,其实输出层使用一个节点就可以完成,为了讲反向传播时候更加通用,易懂。

深度学习那些事 —前馈计算

问题的符号描述

模型结构:在输入x和y的时候通过对应的权重计算,得到hi,通过隐含层再通过权重加一个偏置进行加权和得到yi,隐含层一定要有**函数,sig()函数。

深度学习那些事 —前馈计算

每个训练数据包括x和y,x:特征值,y:标签。x就是轴距和排量,y就是豪华车和普通车。

深度学习那些事 —前馈计算

我们看这个,hi表示要算第i个隐含层节点的具体的值,外边有sig()**函数,他是隐含层,是从输入层来的,所以权重首先是第一层权重,w的上标都是1,下标的i指的是上层节点的索引,因为是和x1相乘,所以右边是1,类似的x2,第二个权重下标的右边是2,最后加上偏置,yi是隐含层到输出层,剩下的符号上面的标记和上边类似。通过这些最终得到的是yi,就是预测值,有了yi之后根据答案就能算出损失函数。这里边的参数包括4部分,两个矩阵两个向量。第一层和第二层的权重和向量。

前馈计算

现在有一个问题请大家思考一下。

训练数据有了,有了数据怎么算?

这个模型有了,我们要先初始化模型参数,为了更好的理解,将前馈计算公式简写成为sig(neti^h),h表示层数,sig(neti^y)表示输出层,neti^h表示隐含层第i个节点**之前的那个值,neti^y指的是输出层第i个节点**之前的值。

深度学习那些事 —前馈计算

前馈计算流程图

深度学习那些事 —前馈计算

深度学习那些事 —前馈计算

深度学习那些事 —前馈计算

深度学习那些事 —前馈计算

深度学习那些事 —前馈计算

上面显示的是从输入层到隐含层的流程

深度学习那些事 —前馈计算

深度学习那些事 —前馈计算

前馈计算计算结果流程图

深度学习那些事 —前馈计算

深度学习那些事 —前馈计算


总结一下

前馈计算:给出输入计算输出

根据计算得到的输出值和标签计算损失函数

在这部分讲的是前馈计算,特意将前馈计算的符号说明了一下,在后续更新的文章反向传播中,要时刻记住这些符号标记。从输入到输出,进一步得到损失函数,这个损失函数是反向传播的源头,误差的源头。