PCA与奇异值分解的关系,奇异值降维网络原理



实际中最好的做法是选择一个合适的PCA与奇异值分解的关系,奇异值降维网络原理,使得PCA与奇异值分解的关系,奇异值降维网络原理的协方差矩阵(covariance matrix)PCA与奇异值分解的关系,奇异值降维网络原理能够被对角化(diagonalized)。这是符合直观的因为这样子所有的covariance都被消除了(比如可能本来有很多noise)而留下的就是最能体现信息量的方差本身。具体的做法则是,注意到PCA与奇异值分解的关系,奇异值降维网络原理也是对称正定矩阵所以我们可以做特征值分解(eigen-decomposition)得到PCA与奇异值分解的关系,奇异值降维网络原理,其中PCA与奇异值分解的关系,奇异值降维网络原理是对角矩阵(对角元是特征值),PCA与奇异值分解的关系,奇异值降维网络原理的每列是相应的特征向量。我们令PCA与奇异值分解的关系,奇异值降维网络原理便能得到我们的principal components。因为用这样的PCA与奇异值分解的关系,奇异值降维网络原理,我们就有(注意因为PCA与奇异值分解的关系,奇异值降维网络原理是正交阵,所以PCA与奇异值分解的关系,奇异值降维网络原理):PCA与奇异值分解的关系,奇异值降维网络原理
即我们可以将PCA与奇异值分解的关系,奇异值降维网络原理对角化。

而SVD来源于另外的一套数学概念,不过我们将要说明这套概念和PCA是内在关联的。不同于特征值分解,SVD(奇异值分解)可以作用于任何形状的矩阵。于是我们则定义对PCA与奇异值分解的关系,奇异值降维网络原理的SVD为PCA与奇异值分解的关系,奇异值降维网络原理,其中PCA与奇异值分解的关系,奇异值降维网络原理是两个正交阵而PCA与奇异值分解的关系,奇异值降维网络原理是对角阵(对角元是PCA与奇异值分解的关系,奇异值降维网络原理的奇异值,即singular values)。我们由此也可以看到SVD比特征值分解要强得多的泛用性,这也是它广泛被用于数值计算的原因。

那么它与PCA的关系呢?我们考虑PCA与奇异值分解的关系,奇异值降维网络原理的SVD表示方式:PCA与奇异值分解的关系,奇异值降维网络原理,所以到这里答案就很明显了,我们只需要取另一个投影矩阵PCA与奇异值分解的关系,奇异值降维网络原理就可以将PCA与奇异值分解的关系,奇异值降维网络原理对角化,即PCA与奇异值分解的关系,奇异值降维网络原理的列是principal components。顺便,我们得到了一个副产品奇异值和特征值的关系:PCA与奇异值分解的关系,奇异值降维网络原理,其中PCA与奇异值分解的关系,奇异值降维网络原理PCA与奇异值分解的关系,奇异值降维网络原理PCA与奇异值分解的关系,奇异值降维网络原理相应的特征值和奇异值。因此,我们得到了SVD是PCA的另一种algebraic formulation。而这也提供了另外一种算法来计算PCA,实际上,平时我就是用SVD定义的这套算法来做PCA的。因为很方便,计算一次就可以了。

额外补充一点,经常我们希望用PCA对PCA与奇异值分解的关系,奇异值降维网络原理进行压缩,比如只保留PCA与奇异值分解的关系,奇异值降维网络原理维度的数据,这个时候我们只需要仅保留PCA与奇异值分解的关系,奇异值降维网络原理的前PCA与奇异值分解的关系,奇异值降维网络原理列(前PCA与奇异值分解的关系,奇异值降维网络原理个principal components),记作PCA与奇异值分解的关系,奇异值降维网络原理,然后PCA与奇异值分解的关系,奇异值降维网络原理就是我们所要的压缩后的数据。

PCA与奇异值分解的关系,奇异值降维网络原理