笔记:机器学习——吴恩达 第八周

课程目录

十三、聚类(Clustering)
13.1 无监督学习:简介
13.2 K-均值算法
13.3 优化目标
13.4 随机初始化
13.5 选择聚类数

十四、降维(Dimensionality Reduction)
14.1 动机一:数据压缩
14.2 动机二:数据可视化
14.3 主成分分析问题
14.4 主成分分析算法
14.5 选择主成分的数量
14.6 重建的压缩表示
14.7 主成分分析法的应用建议


笔记内容


十三、聚类(Clustering) 


13.1 无监督学习:简介

       在这个视频中,我将开始介绍聚类算法。这将是我们学习的第一个非监督学习算法。我们将要让计算机学习无标签数据,而不是此前的标签数据。
       在一个典型的监督学习中,我们有一个有标签的训练集,我们的目标是找到能够区分正样本和负样本的决策边界,我们需要据此拟合一个假设函数。与此不同的是,在非监督学习中,我们的数据没有附带任何标签,我们拿到的数据就是这样的: 

                                  

       在这里我们有一系列点,却没有标签。因此,我们的训练集可以写成只有…..一直到。也就是说,在非监督学习中,我们需要将一系列无标签的训练数据,输入到一个算法中,然后这个算法会去找这个数据的内在结构。图上的数据看起来可以分成两个分开的点集(称为簇),一个能分开这些点集的算法,就被称为聚类算法。

       此后我们还将提到其他类型的非监督学习算法,它们可以为我们找到其他类型的结构或者其他的一些模式,而不只是簇。 我们将先介绍聚类算法。此后,我们将陆续介绍其他算法。那么聚类算法一般用来做什么呢? 

            

       列举的一些应用:比如市场分割,也许你在数据库中存储了许多客户的信息,而你希望将他们分成不同的客户群,这样你可以对不同类型的客户分别提供更适合的服务;社交网络分析:事实上有许多研究人员正在研究这样一些内容,他们关注社交网络或者是其他的一些信息,比如说:你经常跟哪些人联系,而这些人又经常给哪些人发邮件,这可能需要别的聚类算法,希望用它发现社交网络中关系密切的朋友;组织计算机集群,或者更好的管理数据中心:如果你知道数据中心,哪些计算机经常协作工作。那么,你可以重新分配资源,重新布局网络。由此优化数据中心,优化数据通信;了解星系的形成:了解一些天文学上的细节问题。

       在下一个视频中,我们将开始介绍一个具体的聚类算法。 


13.2 K-均值算法 

       K-均值 是最普及的聚类算法,算法接受一个未标记的数据集,然后将数据聚类成不同的组。 

       K-均值是一个迭代算法,假设我们想要将数据聚类成 n 个组,其方法为: 
       1、首先选择 K 个随机的点,称为 聚类中心(cluster centroids); 
       2、对于数据集中的每一个数据,按照距离 K 个中心点的距离,将其与距离最近的中心点关联起来,与同一个中心点关联的所有点聚成一类。 
       3、计算每一个组的平均值,将该组所关联的中心点移动到平均值的位置。 
       4、重复步骤 2-4 直至中心点不再变化。 

       下面是一个聚类示例:

 迭代1次              

       

迭代3次                


迭代 10 次             


       用 来表示 聚类中心,用来存储 与第 i 个实例数据最近的聚类中
心的索引,K-均值算法的伪代码如下: 

                     

       算法分为两个步骤,第一个 for 循环是赋值步骤,即:对于每一个样例 i,计算其应该属于的类。第二个 for 循环是聚类中心的移动,即:对于每一个类 k,重新计算该类的质心。 
       K-均值算法也可以很便利地用于将数据分为许多不同组,即使在没有非常明显区分的组群的情况下也可以。下图所示的数据集包含身高和体重两项特征构成的,利用 K-均值算法将
数据分为三类,用于帮助确定将要生产的 T-恤衫的三种尺寸。 

               


13.3 优化目标 

       K-均值最小化问题,是要 最小化所有的数据点与其所关联的聚类中心点之间的距离之和因此 K-均值的代价函数(又称 畸变函数 Distortion function)为: 

           

       其中 代表与 最近的聚类中心点 。 我们的的优化目标便是找出使得代价函数最小: 

        

       回顾刚才给出的 K-均值迭代算法,我们知道,第一个循环是用于减小 引起的代价,而第二个循环则是用于减小 引起的代价。迭代的过程一定会是每一次迭代都在减小代价函数,不然便是出现了错误。 


13.4 随机初始化 

       在运行 K-均值算法的之前,我们首先要随机初始化所有的聚类中心点,下面介绍怎样做: 
       1. 我们应该选择 K<m,即聚类中心点的个数要小于所有训练集实例的数量 

       2. 随机选择 K 个训练实例,然后令 K 个聚类中心分别与这 K 个训练实例相等 

       K-均值的一个问题在于,它有可能会停留在一个局部最小值处,而这取决于初始化的情况。 

            

      为了解决这个问题,我们通常需要多次运行 K-均值算法,每一次都重新进行随机初始化,最后再比较多次运行 K-均值的结果,选择代价函数最小的结果。这种方法在 K 较小的时候(2--10)还是可行的,但是如果 K 较大,这么做也可能不会有明显地改善。 


13.5 选择聚类数 

       没有所谓最好的选择聚类数的方法,通常是需要根据不同的问题,人工进行选择的。选择的时候思考我们用 K-均值算法聚类的动机是什么,然后选择能最好服务于该目标的聚类数。 
       当人们在讨论,选择聚类数目的方法时,有一个可能会谈及的方法叫作“肘部法则”。关于“肘部法则”,我们所需要做的是改变 K 值,也就是聚类类别数目的总数。我们用一个聚类来运行 K 均值聚类方法。这就意味着,所有的数据都会分到一个聚类里,然后计算成本函数或者计算畸变函数 J。K 代表聚类数字。 

              

       我们可能会得到一条类似于这样的曲线,像一个人的肘部。这就是“肘部法则”。你会发现这种模式,它的畸变值会迅速下降,从 1 到 2,从 2 到 3 之后,你会在 3 的时候达到一个 肘点。在此之后,畸变值就下降的非常慢,看起来就像使用 3 个聚类来进行聚类是正确的,这是因为那个点是曲线的肘点,畸变值下降得很快,K 等于 3 之后就下降得很慢,那么我们就选 K 等于 3。当你应用“肘部法则”的时候,如果你得到了一个像上面这样的图,那么这将是一种用来选择聚类个数的合理方法。 


十四、降维(Dimensionality Reduction) 


14.1 动机一:数据压缩 

       在本节开始谈论第二种类型的无监督学习问题,称为 降维。有几个不同的的原因使你可能想要做降维。一是 数据压缩,数据压缩不仅允许我们压缩数据,使用较少的计算机内存或磁盘空间,而且它也可以加快我们的学习算法。
       首先,让我们谈论降维是什么。作为一种生动的例子,我们收集的数据集,有许多许多特征,我绘制两个在这里。 

           

       假使我们要采用两种不同的仪器来测量一些东西的尺寸,其中一个仪器测量结果的单位是英寸,另一个仪器测量的结果是厘米,我们希望将测量的结果作为我们机器学习的特征。现在的问题的是,两种仪器对同一个东西测量的结果不完全相等(由于误差、精度等),而将两者都作为 特征有些重复,因而,我们希望将这个二维的数据降至一维。 
       从这件事情可以考虑到发生在工业上的事。如果你有几百或成千上万的特征,有时可能有几个不同的工程团队,也许一个工程队给你二
百个特征,第二工程队给你另外三百个的特征,第三工程队给你五百个特征,一千多个特征都在一起,它实际上会变得非常困难去跟踪你知道的那些特征,你从那些工程队得到的,其实跟不想有高度冗余的特征一样。 

               

       将数据从三维降至二维: 这个例子中我们要将一个三维的特征向量降至一个二维的特征向量。过程是与上面类似的,我们将三维向量投射到一个二维的平面上,强迫使得所有的数据都在同一个平面上,降至二维的特征向量。 

                

       这样的处理过程可以被用于把任何维度的数据降到任何想要的维度,例如将 1000 维的特征降至 100 维。
 

14.2 动机二:数据可视化 

       在许多及其学习问题中,如果我们能将 数据可视化,我们便能寻找到一个更好的解决方案,降维可以帮助我们。 

               

       假使我们有有关于许多不同国家的数据,每一个特征向量都有 50 个特征(如,GDP,人均 GDP,平均寿命等)。如果要将这个 50 维的数据可视化是不可能的。使用降维的方法将其降至 2 维,我们便可以将其可视化了。 

                   

        这样做的问题在于,降维的算法只负责减少维数,新产生的特征的意义就必须由我们自己去发现了。 


14.3 主成分分析问题 

        主成分分析(PCA)是最常见的 降维算法。 

         在 PCA 中,我们要做的是找到一个 方向向量(Vector direction),当我们把所有的数据都投射到该向量上时,我们希望 投射平均均方误差能尽可能地小。方向向量是一个经过原点的向量,而 投射误差 是 从特征向量向该方向向量作垂线的长度 。 

                   

       下面给出主成分分析问题的描述: 

       问题是要将 n 维数据降至 k 维,目标是找到向量 使得总的投射误差最小。

       主成分分析与线性回顾的比较: 
       主成分分析  线性回归 是两种不同的算法。主成分分析最小化 投射误差(Projected Error),而线性回归尝试的是最小化 预测误差 。线性回归的目的是 预测结果,而主成分分析 不作任何预测。 

                    

       上图中,左边的是 线性回归 的误差(垂直于 横轴 投影),右边则是 主要成分分析 的误差(垂直于 红线 投影)。 

       PCA 将 n 个特征降维到 k 个,可以用来进行数据压缩,如果 100 维的向量最后可以用 10维来表示,那么压缩率为 90%。同样图像处理领域的 KL 变换使用 PCA 做图像压缩。但 PCA 要保证降维后,还要保证数据的特性损失最小。 

       PCA 技术的一大好处是对数据进行降维的处理。我们可以 对新求出的“主元”向量的重要性进行排序,根据需要取前面最重要的部分,将后面的维数省去,可以达到降维从而简化模型或是对数据进行压缩的效果。同时最大程度的保持了原有数据的信息。 

       PCA 技术的一个很大的优点是,它是完全 无参数限制 的。在 PCA 的计算过程中完全不需要人为的设定参数或是根据任何经验模型对计算进行干预,最后的结果只与数据相关,与用户是独立的。 但是,这一点同时也可以看作是缺点。如果用户对观测对象有一定的先验知识,掌握了数据的一些特征,却无法通过参数化等方法对处理过程进行干预,可能会得不到预期的效果,效率也不高。 


14.4 主成分分析算法 

       PCA 从 n 维减少到 k 维: 

       第一步是 均值归一化。我们需要计算出所有特征的均值,然后令 。如果特征是在不同的数量级上,我们还需要将其除以标准差 σ^2。 

       第二步是计算 协方差矩阵(covariance matrix)Σ:             

      第三步是计算协方差矩阵 Σ 的特征向量(eigenvectors):        在 Octave 里我们可以利用奇异值分解(singular value decomposition)来求解,[U, S, V]= svd(sigma)。 

                  
       对于一个 n×n 维度的矩阵,上式中的 U 是一个 具有与数据之间最小投射误差的方向向量构成的矩阵。如果我们希望将数据从 n 维降至 k 维,我们只需要从 U 中选取前 K 个向量,获得一个 n×k 维度的矩阵,我们用 Ureduce 表示,然后通过如下计算获得要求的 新特征向量 
:          

      其中 x 是 n×1 维的,因此结果为 k×1 维度。注意,我们不对方差特征进行处理。 


14.5 选择主成分的数量 

       主要成分分析是减少 投射的平均均方误差

       训练集的方差 为:  

       我们希望在 平均均方误差与训练集方差的比例 尽可能小的情况下选择 尽可能小的 K 值
 

       如果我们希望这个比例小于 1%,就意味着原本数据的偏差有 99%都保留下来了,如果我们选择保留 95%的偏差,便能非常显著地降低模型中特征的维度了。 

       我们可以先令 K=1,然后进行主要成分分析,获得 Ureduce 和 z,然后计算比例是否小于 1%。如果不是的话再令 K=2,如此类推,直到找到可以使得比例小于 1%的最小 K 值(原因是各个特征之间通常情况存在某种相关性)。 

      还有一些更好的方式来选择 K,当我们在 Octave 中调用“svd”函数的时候,我们获得三个参数:[U, S, V] = svd(sigma)。 

            

       其中的 S 是一个 n×n 的矩阵,只有对角线上有值,而其它单元都是 0,我们可以使用这个矩阵来计算 平均均方误差与训练集方差的比例 : 

              

       也就是:

               

       在压缩过数据后,我们可以采用如下方法来近似地获得 原有的特征(与上节末尾求 新特征向量  做对比): 

           


14.6 重建的压缩表示 

       在之前,谈论了 PCA 作为 压缩算法。在那里你可能需要把 1000 维的数据压缩100 维特征,或具有三维数据压缩到一二维表示。所以,如果这是一个压缩算法,应该能回到这个压缩表示,回到你原有的高维数据的一种近似。所以,给定的 ,这可能 100 维,怎么回到你原来的可能表示1000 维的数组  ? 

            

       PCA 算法,我们可能有一个这样的样本。如图中样本。我们做的是,我们把这些样本投射到图中这个一维平面。然后现在我们只需要使用一个实数,比如 ,指定这些点的位置后他们被投射到这一个三维曲面。给定一个点,我们怎么能回去这个原始的二维空间呢?x 为 2 维,z 为 1 维,,相反的方程为:  ()。

       如图:

              

       所以,这就是你从低维表示 Z 回到未压缩 X 的表示。我们得到了一个之前的原始数据 X,我们也把这个过程称为 重建原始数据。 

       给定未标记的数据集,您现在知道如何应用 PCA,带高维特征 X 和映射到这的低维表示 Z,重建压缩表示 x 的初始值。希望你现在也知道如何采取这些低维表示 Z,映射到备份到一个近似你原有的高维数据。 

       现在你知道如何实施应用 PCA,我们将要做的事是谈论一些技术在实际使用 PCA 时效果很好,特别是在接下来,谈一谈关于如何选择 K。 


14.7 主成分分析法的应用建议 

      假使我们正在针对一张 100×100 像素的图片进行某个计算机视觉的机器学习,即总共有 10000 个特征。 
      1. 第一步是运用 主要成分分析 将 数据压缩 至 1000 个特征 
      2. 然后对训练集运行学习算法 
      3. 在预测时,采用之前学习而来的 Ureduce 将输入的特征 x 转换成 特征向量 z,然后再进行预测 

      注意:如果我们有交叉验证集合测试集,也采用对训练集学习而来的 Ureduce。 

      错误的主要成分分析情况:一个常见错误使用主要成分分析的情况是,将其用于 减少过拟合(减少了特征的数量)。这样做非常不好,不如尝试 归一化处理

       原因在于主要成分分析只是近似地丢弃掉一些特征,它并 不考虑 任何与结果变量有关的信息,因此可能会丢失非常重要的特征。然而当我们进行 归一化处理 时,会 考虑 到 结果变量,不会丢掉重要的数据。 

       另一个常见的错误是,默认地将主要成分分析作为学习过程中的一部分,这虽然很多时候有效果,最好还是从所有原始特征开始,只在有必要的时候(算法运行太慢或者占用太多内存)才考虑采用主要成分分析。 


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章