数据预处理之白化(Whitening transformation)

原文链接:http://blog.csdn.net/hjimce/article/details/50864602

在这里插入图片描述

白化whitening
作者:hjimce
一、相关理论
    白化这个词,可能在深度学习领域比较常遇到,挺起来就是高大上的名词,然而其实白化是一个比PCA稍微高级一点的算法而已,所以如果熟悉PCA,那么其实会发现这是一个非常简单的算法。
    白化的目的是去除输入数据的冗余信息。假设训练数据是图像,由于图像中相邻像素之间具有很强的相关性,所以用于训练时输入是冗余的;白化的目的就是降低输入的冗余性。
    输入数据集X,经过白化处理后,新的数据X'满足两个性质:
(1)特征之间相关性较低;
(2)所有特征具有相同的方差。
    其实我们之前学的PCA算法中,可能PCA给我们的印象是一般用于降维操作。然而其实PCA如果不降维,而是仅仅使用PCA求出特征向量,然后把数据X映射到新的特征空间,这样的一个映射过程,其实就是满足了我们白化的第一个性质:除去特征之间的相关性。因此白化算法的实现过程,第一步操作就是PCA,求出新特征空间中X的新座标,然后再对新的座标进行方差归一化操作。
二、算法概述
白化分为PCA白化、ZCA白化,下面主要讲解算法实现。这部分主要是学了UFLDL的深度学习《白化》教程:http://ufldl.stanford.edu/wiki/index.php/%E7%99%BD%E5%8C%96。自己的一点概括总结,算法实现步骤如下:
1、首先是PCA预处理
     
上面图片,左图表示原始数据X,然后我们通过协方差矩阵可以求得特征向量u1、u2,然后把每个数据点,投影到这两个新的特征向量,得到进行座标如下:

这就是所谓的pca处理。
2、PCA白化
所谓的pca白化是指对上面的pca的新座标X’,每一维的特征做一个标准差归一化处理。因为从上面我们看到在新的座标空间中,(x1,x2)两个座标轴方向的数据明显标准差不同,因此我们接着要对新的每一维座标做一个标注差归一化处理:

当然你也可以采用下面的公式:

X'为经过PCA处理的新PCA座标空间,然后λi就是第i维特征对应的特征值(前面pca得到的特征值),ε是为了避免除数为0。

3、ZCA白化
ZCA白虎是在PCA白化的基础上,又进行处理的一个操作。具体的实现是把上面PCA白化的结果,又变换到原来座标系下的座标:

给人的感觉就像是在PCA空间做了处理完后,然后又把它变换到原始的数据空间。

具体源码实现如下:
  1. def zca_whitening(inputs):
  2. sigma = np.dot(inputs, inputs.T)/inputs.shape[1] #inputs是经过归一化处理的,所以这边就相当于计算协方差矩阵
  3. U,S,V = np.linalg.svd(sigma) #奇异分解
  4. epsilon = 0.1 #白化的时候,防止除数为0
  5. ZCAMatrix = np.dot(np.dot(U, np.diag(1.0/np.sqrt(np.diag(S) + epsilon))), U.T) #计算zca白化矩阵
  6. return np.dot(ZCAMatrix, inputs) #白化变换

参考文献:



發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章