PCA 学习笔记

文章目录

前言

重要的算法还是写写笔记吧

PCA

主成分分析(PCA)是一种降维方法,使用一个超平面,对正交属性空间中的所有样本点进行恰当的表达。超平面应该满足这样的性质:

  1. 最近重构性:样本点到这个超平面的距离都足够近
  2. 最大可分性:样本点在这个超平面上的投影尽可能分开
    基于这两个可以分别得到等价推导。
    PCA 学习笔记
    然后可得投影后的样本为 WXW^{\top}X,这里是中心化后的样本。
    样本 XX 大小为 d×md\times m。降维后的维数 dd' 由用户事先指定,可以通过交叉验证,或者指定重构阈值 tt,找到满足重构阈值的最小维数:
    PCA 学习笔记
    其中 λi\lambda_i 为协方差矩阵的特征值。
    由于舍弃了最小的 ddd-d' 个特征值对应的特征向量,因此必然会有信息的丢失,但这往往是必要的:
  1. 增大采样密度
  2. 最小的特征值对应的特征向量往往与噪声有关,舍弃他们往往能在一定程度上起到去噪的效果。

特征分解就是解行列式方程,比如求解矩阵 A=[110430102]A = \begin{bmatrix} -1 & 1 & 0 \\ -4 & 3 & 0 \\ 1 & 0 & 2\end{bmatrix} 的特征值与特征向量。
AλE=λEA=λ+1104λ3010λ2=(λ+1)(λ3)(λ2)+101+0(4)00(λ3)11(4)(λ2)(1)00=(λ+1)(λ3)(λ2)+4(λ2)=(λ2)(λ22λ3+4)=(λ2)(λ1)2| A-\lambda E|=|\lambda E - A| = \left |\begin{matrix} \lambda+1 & 1 & 0 \\ -4 & \lambda-3 & 0 \\ 1 & 0 & \lambda-2\end{matrix}\right|=(\lambda+1)*(\lambda-3)*(\lambda-2)+1*0*1+0*(-4)*0-\\ 0*(\lambda-3)*1-1*(-4)*(\lambda-2)-(-1)*0*0\\=(\lambda+1)*(\lambda-3)*(\lambda-2)+4(\lambda-2)\\ =(\lambda -2)(\lambda^2-2\lambda-3+4)\\ =(\lambda -2)(\lambda -1)^2
所以 λ=1,2\lambda = 1,2.
对于特征值 1,其对应的特征向量 x=[x1,x2,x3]x=[x_1,x_2,x_3]^{\top}
111043101021x=0 \left |\begin{matrix} -1-1 & 1 & 0 \\ -4 & 3-1 & 0 \\ 1 & 0 & 2-1\end{matrix}\right|x=0
210420101x=0 \left |\begin{matrix} -2 & 1 & 0 \\ -4 & 2 & 0 \\ 1 & 0 & 1\end{matrix}\right|x=0
所以标准化后的特征向量 x=[16,26,16]x=[\frac{-1}{\sqrt{6}},\frac{-2}{\sqrt{6}},\frac{1}{\sqrt{6}}]^{\top}