对pca的总结

不同PCA 原数据矩阵 变换后矩阵 惩罚项 算法/原理
PCA 不作要求 1. 列向量线性无关;
2. 维度减少。
$\mathbf{P}$$\mathbf{X}$进行转换,使$\mathbf{Y}$的协方差矩阵是个对角矩阵。
必要的话丢弃小的方差。
$\mathbf{X}^T\mathbf{X}$的特征向量组成的的确就是我们SVD中的$\mathbf{V}$矩阵,也就是PCA中的$\mathbf{Y}$
NNMF 非负 1. 列向量线性无关;
2. 维度减少;
3. 分解出的两个矩阵只要有一个所有值非负。
$\begin{split}& (W_{n \times k}^*, H_{k \times m}^*) \\ & = \underset{W_{n \times k}, H_{k \times m}}{\operatorname{arg\,min\,}} d_{\mathrm{Fro}}(X_{n \times m}, W_{n \times k}H_{k \times m}) \\ & + \alpha \rho \|W_{n \times k}\|_1 + \alpha \rho \|H_{k \times m}\|_1 \\ & + \frac{\alpha(1-\rho)}{2} \|W_{n \times k}\|_{\mathrm{Fro}} ^ 2 \\ & + \frac{\alpha(1-\rho)}{2} \|H_{k \times m}\|_{\mathrm{Fro}} ^ 2\end{split}$
Sparse PCA 不作要求 1. 列向量线性无关;
2. 维度减少;
3. 稀疏。
$\begin{split}& (W_{n \times k}^*, H_{k \times m}^*) \\ & = \underset{W_{n \times k}, H_{k \times m}}{\operatorname{arg\,min\,}} \frac{1}{2}\|X_{n \times m}-W_{n \times k}H_{k \times m}\|_2^2 \\ & +\alpha\|H_{k \times m}\|_1 \\ & \text{subject to }\|W_i\|_2 = 1 \\ & \text{for all }0 \leq i \leq k \leq m\end{split}$
Kernel PCA 不做要求 1. 列向量线性无关;
2. 维度减少。
将核方法应用于PCA,可以发现原数据矩阵的隐含模式。

矩阵Frobenius范数不同于矩阵2范数,具体阅读范数博文。