传统机器学习-SVM

SVM涉及距离,和KNN一样,要做数据标准化处理。

1-什么是SVM

Hard Margin SVM:前提,样本是线性可分的

传统机器学习-SVM

2-SVM背后的最优化问题

SVM:最大化margin,其中margin=2d,即SVM要最大化d。

传统机器学习-SVM

传统机器学习-SVM传统机器学习-SVM

传统机器学习-SVM传统机器学习-SVM

传统机器学习-SVM

3-Soft Margin SVM 和SVM的正则化

下面两幅图,均是Hard Margin SVM,第一个可能泛化不好,第二个线性不可分,Hard Margin SVM无法得到结果,无法应用。

传统机器学习-SVM传统机器学习-SVM

Soft Margin SVM

其思想,允许模型犯一定的错误,Hard不允许有样本存在在这两条线之间,soft可以。其中传统机器学习-SVM不是一个固定的值,而是每个样本都有自己的传统机器学习-SVM,例我们有m个样本,则传统机器学习-SVM也有m个数值,即每一个数据点都可以有一个容错空间。

传统机器学习-SVM

传统机器学习-SVM传统机器学习-SVM

4-核函数

之前的优化目标可以利用一系列数学手段转换成如下的式子,可以看出有样本之间的点积传统机器学习-SVM,按之前的特征工程,若想要多项式特征,可先将样本的特征转变为多项式特征,然后再点积传统机器学习-SVM

传统机器学习-SVM传统机器学习-SVM

核函数的想法是,不用对样本的特征进行转变,而是直接找到一个函数,该函数对原样本的结果与先对原样本特征进行处理再点积的结果一致。

传统机器学习-SVM传统机器学习-SVM

举个????,例如我们想要二阶特征,即我们想要特征传统机器学习-SVM,只需要这样的核函数传统机器学习-SVM

传统机器学习-SVM传统机器学习-SVM

多项式核函数:传统机器学习-SVM

线性核函数:传统机器学习-SVM,即对样本特征不进行任何处理,即使用原特征。

5-高斯核函数(RBF核)

核函数K(x,y)就是重新定义x和y的点积。

高斯核函数:传统机器学习-SVM,高斯函数传统机器学习-SVM,高斯核函数与高斯函数形似。

高斯核函数的本质是将一个样本点映射到一个无穷维的特征空间。高斯核对每一个数据点都是landmark,把m*n的数据映射成了m*m的数据。

传统机器学习-SVM传统机器学习-SVM

高斯核:????举个????直观理解一下,原先是传统机器学习-SVM,我们这边固定一下y,即y不取样本点而取固定点,这边固定点是传统机器学习-SVM,这两个特殊点通常称为landmark(地标点)。若有两个地标,高斯核函数就将其升为二维样本点,其取值如????中间的图。高斯核对每一个数据点都是landmark,把m*n的数据映射成了m*m的数据。

传统机器学习-SVM传统机器学习-SVM传统机器学习-SVM

6-RBF核函数中的gamma

高斯核函数与高斯函数形似,他们之间参数也有点关系。高斯函数中传统机器学习-SVM代表均值,传统机器学习-SVM代表标准差,其中传统机器学习-SVM越大,方差越大,函数分布越宽;其中传统机器学习-SVM越小,方差越小,函数分布越窄;然后高斯函数中的传统机器学习-SVM相当于高斯核函数中的传统机器学习-SVM,故传统机器学习-SVM越大,方差越小,函数分布越窄;其中传统机器学习-SVM越小,方差越大,函数分布越宽。

传统机器学习-SVM可用来调节模型复杂度,传统机器学习-SVM越大,模型越复杂(传统机器学习-SVM越大,分布越窄,与该样本x相邻的样本y影响更大,在该样本x的附近形成小钟形),传统机器学习-SVM越小,模型越简单(传统机器学习-SVM越小,分布越宽,与该样本x相邻的样本y影响相对偏小,考虑了附近更多的样本y,在该样本x的附近形成钟形较大)。

传统机器学习-SVM

传统机器学习-SVM由小到大,传统机器学习-SVM

传统机器学习-SVM传统机器学习-SVM

传统机器学习-SVM传统机器学习-SVM

参考:https://coding.imooc.com/learn/list/169.html