二次规划的全局最优
二次规划
其中这些问题在我考研的时候也想清楚了,只是读研以来一开始做的是进化算法,后来又做的深度学习,都是理论性不太强的方向。这些东西有点忘了,现在看到书突然一下记起来了,便做个笔记吧。
- 注:如何理解线性变换?向量经过可逆线性变换以后,向量还是那个向量,只不过换了一组基向量(或者说换了一个坐标系统)相当于换了一种表达方式。但是向量假如经过线性变换不是可逆的,那么这个变换过后就产生了信息丢失,比如一个向量经过一个不满秩的线性变换以后就变回不来了,向量就不是那个向量了。
- 定义:一类典型的优化问题,目标函数是变量的二次函数,而约束条件使变量的线性不等式
其中为d维向量,为实对称矩阵 - 我们知道的特征向量实质上是一组基向量,那么可以转换为这组特征向量的线性组合。假如Q是正定的,那么
其中为一个对角阵,元素为的特征值,为通过线性变换后得到的向量。其中
可以看成是一个特征分解的过程。
- 假如是正定的(即Q的特征值都是大于0的),则二次规划具有全局唯一解,根据求出即可。试想一下,是一个对角阵且对角元素全大于0,则展开必然是这样一种形式(懒得敲公式了我擦…直接写出来拍照吧)
- 假如是半正定的(即Q的特征值都是大于或等于0的),且约束条件的可行域不为空,并且目标函数在此可行域具有下界,则二次规划具有局部最优。假如不存在约束条件,则最优解有无数个,只要令特征值为0对应的的元素为0即可(其他元素随你喜欢,天马行空都可以哈哈),这个也很好解释,也就是我懒得写的公式上边有些,其余的,只需要对应的即可,对应的=天马行空。
- 假如是非正定矩阵,则…天马行空,有很多局部最优解,是一个np难问题
- 注意:在最优化问题中,只有hessian矩阵不定时才会出现鞍点(半正定也不会)!