凸优化学习笔记17:次梯度下降法

对于光滑函数,我们可以用梯度下降法,并且证明了取不同的步长,可以得到次线性收敛,如果加上强凸性质,还可以得到线性收敛速度。那如果现在对于不可导的函数,我们就只能沿着次梯度下降,同样会面临步长的选择、方向的选择、收敛性分析等问题。

1. 收敛性分析

次梯度下降的一般形式为
x(k)=x(k1)tkg(k1),k=1,2,gf(x(k1)) x^{(k)}=x^{(k-1)}-t_{k} g^{(k-1)}, \quad k=1,2, \ldots \quad g\in\partial f(x^{(k-1)})
一般有 3 种步长的选择方式:

  1. fix step: tkt_k 为常数
  2. fix length:tkg(k1)2=x(k)x(k1)2t_{k}\left\|g^{(k-1)}\right\|_{2}=\left\|x^{(k)}-x^{(k-1)}\right\|_{2} 为常数
  3. diminishing:tk0,k=1tk=t_{k} \rightarrow 0, \sum_{k=1}^{\infty} t_{k}=\infty

要证明这几种方法的收敛性,需要先引入 Lipschitz continuous 假设,即
f(x)f(y)Gxy2x,y |f(x)-f(y)| \leq G\|x-y\|_{2} \quad \forall x, y
这等价于 g2G\Vert g\Vert_2\le G 对任意 gf(x)g\in\partial f(x) 都成立。

在分析收敛性之前,我们需要引入一个非常重要的式子⬇️!!!在后面的分析中会一直用到:
x+x22=xtgx22=xx222tgT(xx)+t2g22xx222t(f(x)f)+t2g22 \begin{aligned} \left\|x^{+}-x^{\star}\right\|_{2}^{2} &=\left\|x-t g-x^{\star}\right\|_{2}^{2} \\ &=\left\|x-x^{\star}\right\|_{2}^{2}-2 t g^{T}\left(x-x^{\star}\right)+t^{2}\|g\|_{2}^{2} \\ & \leq\left\|x-x^{\star}\right\|_{2}^{2}-2 t\left(f(x)-f^{\star}\right)+t^{2}\|g\|_{2}^{2} \end{aligned}
那么如果定义 fbest(k)=min0i<kf(x(i))f_{\mathrm{best}}^{(k)}=\min _{0 \leq i<k} f\left(x^{(i)}\right),就有
2(i=1kti)(fbest (k)f)x(0)x22x(k)x22+i=1kti2g(i1)22x(0)x22+i=1kti2g(i1)22 \begin{aligned} 2\left(\sum_{i=1}^{k} t_{i}\right)\left(f_{\text {best }}^{(k)}-f^{\star}\right) & \leq\left\|x^{(0)}-x^{\star}\right\|_{2}^{2}-\left\|x^{(k)}-x^{\star}\right\|_{2}^{2}+\sum_{i=1}^{k} t_{i}^{2}\left\|g^{(i-1)}\right\|_{2}^{2} \\ & \leq\left\|x^{(0)}-x^{\star}\right\|_{2}^{2}+\sum_{i=1}^{k} t_{i}^{2}\left\|g^{(i-1)}\right\|_{2}^{2} \end{aligned}
根据上面的式子,就可以得到对于

Fixed step sizeti=tt_i=t
fbest (k)fx(0)x222kt+G2t2 f_{\text {best }}^{(k)}-f^{\star} \leq \frac{\left\|x^{(0)}-x^{\star}\right\|_{2}^{2}}{2 k t}+\frac{G^{2} t}{2}
Fixed step lengthti=s/g(i1)2t_{i}=s /\left\|g^{(i-1)}\right\|_{2}
fbest (k)fGx(0)x222ks+Gs2 f_{\text {best }}^{(k)}-f^{\star} \leq \frac{G\left\|x^{(0)}-x^{\star}\right\|_{2}^{2}}{2 k s}+\frac{G s}{2}
这两个式子中的第一项都随着 kk 增大而趋于 0,但第二项却没有办法消掉,也就是与最优解的误差不会趋于 0。并且他们有一个微妙的不同点在于,fixed step size 情况下 G2t/2O(G2),Gs/2O(G)G^2t/2\sim O(G^2),Gs/2\sim O(G)GG 一般是较大的。

Diminishing step sizetk0,k=1tk=t_{k} \rightarrow 0, \sum_{k=1}^{\infty} t_{k}=\infty
fbest (k)fx(0)x22+G2i=1kti22i=1kti f_{\text {best }}^{(k)}-f^{\star} \leq \frac{\left\|x^{(0)}-x^{\star}\right\|_{2}^{2}+G^{2} \sum_{i=1}^{k} t_{i}^{2}}{2 \sum_{i=1}^{k} t_{i}}
可以证明,(i=1kti2)/(i=1kti)0\left(\sum_{i=1}^{k} t_{i}^{2}\right) /\left(\sum_{i=1}^{k} t_{i}\right) \rightarrow 0,因此 fbest (k)f_{\text {best }}^{(k)} 会收敛于 ff^\star

下面看几幅图片,对于优化问题 minAxb1\min\Vert Ax-b\Vert_1

Fixed step length Diminishing step size
凸优化学习笔记17:次梯度下降法 凸优化学习笔记17:次梯度下降法

前面考虑了固定步长的情况,假设现在我们固定总的迭代次数为 kk,可不可以优化步长 ss 的大小来尽可能使 fbest(k)f_\text{best}^{(k)} 接近 ff^\star 呢?这实际上可以表示为优化问题
fbest (k)fR2+i=1ksi22i=1ksi/GminsR22ks/G+s2/G f_{\text {best }}^{(k)}-f^{\star} \leq \frac{R^{2}+\sum_{i=1}^{k} s_{i}^{2}}{2 \sum_{i=1}^{k} s_{i}/G} \Longrightarrow \min_s \frac{R^{2}}{2 ks/G}+\frac{s}{2/G}
其中 R=x(0)x2R=\left\|x^{(0)}-x^{\star}\right\|_{2},那么最优步长为 s=R/ks=R/\sqrt{k},此时
fbest (k)fGRk f_{\text {best }}^{(k)}-f^{\star} \leq \frac{GR}{\sqrt{k}}
因此收敛速度为 O(1/k)O(1/\sqrt{k}),对比之前光滑函数的梯度下降,收敛速度为 O(1/k)O(1/k)

我们对前面的收敛速度并不满意,如果有更多的信息,比如已知最优解 ff^\star 的大小,能不能改进收敛速度呢?根据前面的式子,有
x+x22xx222ti(f(x)f)+ti2g22 \left\|x^{+}-x^{\star}\right\|_{2}^{2} \leq\left\|x-x^{\star}\right\|_{2}^{2}-2 t_i\left(f(x)-f^{\star}\right)+t_i^{2}\|g\|_{2}^{2}
这实际上是关于 tit_i 的一个二次函数,因此可以取 ti=f(x(i1))fg(i1)22t_{i}=\frac{f\left(x^{(i-1)}\right)-f^{\star}}{\left\|g^{(i-1)}\right\|_{2}^{2}},就可以得到
fbest (k)fGRk f_{\text {best }}^{(k)}-f^{\star} \leq \frac{GR}{\sqrt{k}}
可见还是没有改进收敛速度。

如果引入强凸性质呢?如果假设满足 μ\mu 强凸,则 ffk+gkT(xkx)+μ/2xkx22f^\star \ge f^k+g^{kT}(x^k-x^\star)+\mu/2\Vert x^k-x^\star\Vert_2^2,可以取 tk=2μ(k+1)t_k=\frac{2}{\mu(k+1)},那么就可以得到
fbest (k)f2G2μ(k+1) f_{\text {best }}^{(k)}-f^{\star} \leq \frac{2G^2}{\mu(k+1)}

最后给我的博客打个广告,欢迎光临
https://glooow1024.github.io/
https://glooow.gitee.io/

前面的一些博客链接如下
凸优化专栏
凸优化学习笔记 1:Convex Sets
凸优化学习笔记 2:超平面分离定理
凸优化学习笔记 3:广义不等式
凸优化学习笔记 4:Convex Function
凸优化学习笔记 5:保凸变换
凸优化学习笔记 6:共轭函数
凸优化学习笔记 7:拟凸函数 Quasiconvex Function
凸优化学习笔记 8:对数凸函数
凸优化学习笔记 9:广义凸函数
凸优化学习笔记 10:凸优化问题
凸优化学习笔记 11:对偶原理
凸优化学习笔记 12:KKT条件
凸优化学习笔记 13:KKT条件 & 互补性条件 & 强对偶性
凸优化学习笔记 14:SDP Representablity
凸优化学习笔记 15:梯度方法
凸优化学习笔记 16:次梯度
凸优化学习笔记 17:次梯度下降法