一、梯度下降法
重申,机器学习三要素是:模型,学习准则,优化算法。这里讨论一下梯度下降法。
通常为了充分利用凸优化中的一些高效成熟的优化方法,像:共轭梯度、拟牛顿法等,所以呢很多的机器学习算法倾向于选择合适的模型和损失函数来构造一个凸函数作为优化的目标。但是呢,也有一些模型(例如神经网络)的优化目标是非凸的,以至于只能找到其局部最优解。
机器学习中,常用的优化算法就是梯度下降法,首先初始化参数θ0,然后按照下列公式进行参数的更新:
θt+1=θt−α∂θ∂R(θ)(式1)
=θt−αN1n=1∑N∂θ∂L(y(n),f(x(n);θ))(式2)
注:θt为第t次迭代时的参数值,α为搜索步长,又叫做学习率(Learning Rate)。
(1)预防过拟合
对于使用梯度下降的优化算法,为了防止过拟合现象的发生,不仅可以使用增加正则化项,还可以通过提前停止来实现。
在梯度下降训练的过程中,由于过拟合的原因,在训练样本上收敛的参数,并不一定在测试集上最优. 因此,除了训练集和测试集之外,有时也会使用一个验证集(Validation Set)来进行模型选择,测试模型在验证集上是否最优.
(2)提前停止
在每次迭代时,把新的到的模型f(x;θ)在验证集上进行测试,然后计算错误率。如果在验证集上的错误率不再下降,就停止迭代。这种策略就叫做提前停止(Early Stop)。如果没有验证集,可以直接在训练集上划分一个小比例的数据子集作为验证集。
图示如下:

二、批量梯度下降
优化目标:
J(θ)=2N1i=1∑m(yi−fθ(xi))2θminJ(θ)(式3)
优化过程:
根据整个批量数据的梯度更新参数,θnew⟸θold−η∂θ∂J(θ)
∂θ∂J(θ)=−N1i=1∑N((yi−fθ(xi))∂θ∂fθ(xi))(式4)
=−N1i=1∑N(yi−fθ(xi))xi(式5)
θnew=θold+ηN1i=1∑N(yi−fθ(xi))xi(式6)
注:批量梯度下降法(Batch Gradient Descent,BGD)中,目标函数是整个训练集上的风险函数,批量梯度下降法在每次迭代时要计算在每个样本上损失函数的梯度并求和。
当训练集中的样本数量N很大时,空间复杂度比较高,每次迭代的计算开销也很大。
三、随机梯度下降
为了减少每次迭代的计算复杂度,在每次迭代时只采集一个样本,计算这个样本损失函数的梯度并进行参数更新。这就是随机梯度下降法(Stochastic Gradient Descent,SGD).当经过最够多次数的迭代时,随机梯度下降也可以收敛到局部最优解。
(1)算法流程

(2)优化目标:
J(i)(θ)=21i=1∑m(yi−fθ(xi))2θminJ(i)(θ)(式7)
优化过程:
根据整个批量数据的梯度更新参数,θnew⟸θold−η∂θ∂J(i)(θ)
∂θ∂J(i)(θ)=−((yi−fθ(xi))∂θ∂fθ(xi))(式8)
=−(yi−fθ(xi))xi(式9)
θnew=θold+η(yi−fθ(xi))xi(式10)
对比批量梯度下降:
随机梯度下降可以实现更快的更新参数,但是学习中会有不确定性或震荡现象。
四、小批量梯度下降
(1)思想:
批量梯度下降和随机梯度下降的结合。
(2)训练步骤:
- 将整个训练集分成k个小批量(mini-batches)
{1,2,3,⋯,k}
- 对于每一个小批量k,做一步批量下降来降低
J(k)(θ)=2Nk1i=1∑Nk(yi−fθ(xi))2
- 对于每一个小批量,更新参数θnew=θold−η∂θ∂J(k)(θ)
优点:
结合了批量梯度下降和随机梯度下降的优点:
∗批量梯度下降的优秀的稳定性
∗随机梯度下降的快速更新
小批量梯度下降很容易做并行化
∗将每个小批量数据进一步切分,每个线程分别计算梯度,最后再加和这些梯度
图示如下:

在实际应用中,小批量随机梯度下降法有收敛快、计算开销小的优点,因此逐渐成为大规模的机器学习中的主要优化算法。
好了,至此就说完了梯度下降的基本原理。