深度学习之基础————softmax回归

分类

回归是用于预测某个值
分类是预测某个类别

他们都是最常用监督学习任务,本次主要对softmax回归这个对多类别进行预测分类的算法进行学习。

Softmax回归

Logistic回归模型可以直接推广到支持多类别分类,不必组合和训练多个二分类器,其称为Softmax回归多类别Logistic回归。
当输入一个样本时,Softmax回归模型首先计算kk类的分数sk(x)s_k(x),然后应用在Softmax函数中,估算出每类的概率。sk(x)=xTθks_k(x)=x^Tθ^k Softmax函数
pk^=σ(s(x))k=exp(sk(x))/j=1Kexp(sj(x))\hat{p_k} = σ(s(x))_k =exp (s_k(x)) /∑_{j=1}^K exp (s_j(x))
softmax回归是一个单层神经网络深度学习之基础————softmax回归
其运算则有o1=x1w11+x1w12+x1w13+x1w14o_1=x_1w_{11}+x_1w_{12}+x_1w_{13}+x_1w_{14}o1=x1w21+x1w22+x1w23+x1w24o_1=x_1w_{21}+x_1w_{22}+x_1w_{23}+x_1w_{24}o1=x1w31+x1w32+x1w33+x1w34o_1=x_1w_{31}+x_1w_{32}+x_1w_{33}+x_1w_{34}o1=x1w41+x1w42+x1w43+x1w44o_1=x_1w_{41}+x_1w_{42}+x_1w_{43}+x_1w_{44}

进行Softmax运算深度学习之基础————softmax回归
其中y1^+y2^+y3^=1\hat{y_1}+\hat{y_2}+\hat{y_3}=10<y1^,y2^,y3^<10<\hat{y_1},\hat{y_2},\hat{y_3}<1

Softmax 回归模型分类器预测结果:
深度学习之基础————softmax回归

交叉熵损失函数

深度学习之基础————softmax回归
假设训练数据集的样本数为nn,交叉熵损失函数定义为:
深度学习之基础————softmax回归
我们将交叉熵损失函数进行小批量梯度下降进而得到理想的模型