机器学习第四周(一)

1、Non-linear hypotheses,引入课程中的一幅图片
机器学习第四周(一)
对于图中的数据,只有俩个feature,分类效果尚能令人满意,但当feature数量不断增大时,假设函数中二次项数会剧增,比如feature为100时,此时二次项数为(100*100)/2=5000个
作者后面又举了一个识别汽车的例子,在一幅50*50像素的图片中,特征量能达到2500个,那么二次项就有(2500*2500)/2约3million个
所以对这些拥有大的feature数据,需要引入神经网络来表示假设函数。


2、Model Represent,从一个简单的神经元引入
机器学习第四周(一)
如图,有三个feature,将feature作为输入,同样加入x0并置1,这里我们称x0为偏置项(bias unit)。输入经过一个神经元,最后得到我们的假设函数,假设函数形式任然采用Sigmoid函数,在这里称Sigmoid函数为**函数(activation function),也称theta为权值(weights)
同样,当扩展到多个神经元时如下:
机器学习第四周(一)
这里我们称layer1为输入层(input layer)layer3为输出层(output layer)介于layer1和layer3之间的为隐藏层(hidden layers)这里为layer2.同时,我们称隐藏层的结点机器学习第四周(一)为**结点(activation units)a0项也为1(也称做偏置项(bias unit)).
以一个具体神经网络为例解释计算过程:
机器学习第四周(一)

机器学习第四周(一)项称第j层第i个结点
机器学习第四周(一)项称为第j层到第j+1层权值矩阵。并且有机器学习第四周(一)S(j)表示第j层的结点数,S(j+1)表示第j+1层结点数


3、vectorized implementation(向量化表示)
以图中每个**结点和假设函数的的具体计算过程为例。
我们引入变量Z并给出向量化实现:
以第二层为例,k表示结点序号,向量Z为:
机器学习第四周(一)
因为机器学习第四周(一)所以我们得到Z的公式(其中j大于等于1)机器学习第四周(一)
所以**结点的向量化表示如下:
机器学习第四周(一)
进一步化简
机器学习第四周(一)


同时,也得到假设函数的向量化表示如下:
机器学习第四周(一)