機器學習讀書筆記
文章目錄
第二章 模型與評估
2.1 經驗誤差與過擬合
錯誤率
通常我們把分類錯誤的樣本數佔樣本總數的比例稱爲“錯誤率”(error rate),即如果在 個樣本中有 個樣本分類錯誤,則錯誤率 ; 相應的, 稱爲“精度”(accuracy),即 “精度 = 1 - 錯誤率”。更一般地,我們把學習器的實際預測輸出與樣本的真實輸出之間的差異稱爲“誤差”(error),學習器在訓練集上的誤差稱爲“訓練誤差”(training error)或“經驗誤差”(empirical error),在新樣本上的誤差稱爲“泛化誤差”(generalization error)。顯然,我們希望得到泛化誤差小的學習器。然而,我們事先並不知道樣本是什麼樣,實際能做的是努力使經驗誤差最小化。
過擬合
當學習器把訓練樣本學習得“太好”了的時候,很可能已經把訓練樣本自身的一些特點當作了所有潛在樣本都會具有一般性質,這樣就會導致泛化性能下降,這種現場在機器學習中,稱爲“過擬合”。
過擬合是機器學習面臨的關鍵障礙,且過擬合無法避免,我們所能做的只是“緩解”,或者說減小其風險。關於這一點,可以大致這樣理解:機器學習面臨的問題通常是NP難甚至更難,而有效的學習算法必然是多項式時間內運行完成,若可徹底避免過擬合,則通過經驗誤差最小化就能獲得最優解,這就是意味着我們構造性地證明了;因此,只要相信,過擬合就不可避免。
NP 問題(完全多項式非確定性問題,Non-Deterministic Polynomial Complete Problems)
NP 問題是指一個複雜問題不能確定是否多項式時間內找到答案,但是可以在多項式時間內驗證答案是否正確。
2.2 評估方法
通常,我們可以通過實驗測試來對學習器的泛化誤差進行評估並進而做出選擇。爲此,我們需要使用一個“測試集”(testing error) 來測試學習器對新樣本的判別能力,然後以測試集上的"測試誤差"(testing error)作爲泛化誤差的近似。通常我們假設測試樣本也是從樣本真實分佈中獨立同分步採樣而得,但需要注意的是,測試集應該與訓練集互斥,即測試樣本儘量不在訓練集中出現、未在訓練過程中使用過。
獨立同分布(iid, independently identically distribution)
在概率論理論中,指隨機過程中,任何時刻的取值都爲隨機變量,如果這些隨機變量服從同一分佈,並且相互獨立,那麼這些隨機變量是獨立同分布。
如果隨機變量和 相互獨立,是指 的取值不影響 的取值, 的取值也不影響 的取值且隨機變量 和 服從 同一分佈,這意味着 和 具有相同的分佈形狀和相同的分佈參數,對離隨機變量具有相同的分佈律,對連續隨機變量具有相同的概率密度函數,有着相同的分佈函數,相同的期望、方差。
示例——擲骰子
獨立
每次抽樣之間是沒有關係,互不影響的;
就像拋骰子,每次拋到幾就是幾,這就是獨立的,但如果要求兩次拋的和大於8,其餘的不算,那麼第一次拋和第二次拋就不獨立了,因爲第二次拋的時候結果是和第一次相關的。
同分布
每次抽樣,樣本都服從同一個分佈。
拋骰子每次得到任意點數的概率都是 ,這就是同分布的。但如果第一次拋的是6面的骰子,第二次拋的是一個正12面體的骰子,就不再是同分布了。
如果我們只有一個包含 個樣例的數據集,既要訓練,又要進行測試,怎麼樣才能做到呢?答案是:通過對 進行適當的處理,從中產生出訓練集 和測試集 。下面介紹幾中常見的做法。
2.2.1 留出法
“留出法”(hold-out)直接將數據集劃分爲兩個互斥的集合,其中一個集合作爲訓練集 ,另一個作爲測試集 ,即 ,, 在 上訓練出模型後,用 來評估其測試誤差,作爲對泛化誤差的估計。
需要注意的是,訓練/測試集的劃分要儘可能保持數據分佈的一致性,避免因數據劃分過程引入額外的偏差而對最終結果產生影響。如果從採樣(sampling)的角度來看待數據集的劃分過程,則保留出類別比例的採樣方式通常稱爲"分層採樣"(stratified sampling)。
分層抽樣
它是從一個可以劃分成不同子總體(或稱爲層)的總體中,按規定的比例從不同層中隨機抽取樣品(個體)的方法。
優點
樣本的代表性比較好,抽樣誤差比較小。
缺點
抽樣手續較簡單隨機抽樣還要繁雜些。
留出法,使用過程中,常見的做法是將大約 的樣本用於訓練,剩餘樣本用於測試。
2.2.2 交叉驗證法
“交叉驗證法”(cross validation) 先將數據集 劃分爲 個大小相似的互斥子集,即,,。每個子集 都儘可能保持數據分佈一致性。即從中通過分層採樣得到,然後,每次用 個子集的並集作爲訓練集,餘下的那個子集作爲測試集;這樣就可以獲得 個測試結果的均值。顯然,交叉驗證法評估結果的穩定性和保真性在很大程度上取決於 的取值,爲強調這一點,通常把交叉驗證法稱爲**" 折交叉驗證"**( - fold cross validation)。 最常用的取值是 10,此時稱爲 10 折交叉驗證;其他常用的 值有 等。
2.2.3 自助法
當數據集較小,難以有效劃分訓練/測試集時,“自助法”(bootsrapping) 很有用,如果初始數據量足夠時,留出法和交叉驗證法更常用一些。
自助法,直接以自助採樣(bootstrap sampling)爲基礎。給定包含 個樣本的數據集 ,我們對它進行採樣產生數據集 :每次隨機從 中挑選一個樣本,將其拷貝放入 ,然後再將該樣本放回初始數據集 中,使得該樣本在下次採樣時,仍有可能被採到;這個過程重複執行 次後,我們就得到了包含 個樣本的數據集 ,這就是自助採樣的結果。顯然, 中有一部分樣本會在 中多次出現,而另一部分樣本不出現。可以做一個簡單估計,樣本在 次採樣中始終不被採到的概率是 ,取極限得到
即,通過自助採樣,初始數據 中約有 的樣本未出現在採樣數據集 中。這樣,實際評估的模型與期望評估的模型都使用個訓練樣本,而我們仍有數據總量約爲 的、沒在訓練集中出現的樣本用於測試。這樣的測試結果,亦稱"包外估計"(out-of-bag estimate)。
公式 2.1,推導
根據兩個重要極限定理,第二重要極限定理:
則式中,
此公式得證。
以上公式的推導過程,詳見兩個重要極限的推導過程。
2.2.4 調參與最終模型
大多數的學習算法都有些參數需要設定,參數配置不同,學得的模型的性能往往有顯著差別。因此,在進行模型評估與選擇時,除了要對適用學習算法進行選擇,還需要對算法參數進行設定,這就是通常所說的"參數調節"或簡稱"調參"。
我們通常把學得的模型在實際使用中遇到的數據稱爲測試數據,爲了加以區分,模型評估與選擇中用於評估測試的數據集通常稱爲"驗證集"(validation set)。
2.3 性能度量
對學習器的泛化性能進行評估,不僅需要有效可行的實驗估計方法,還需要有衡量模型泛化的評價標準,這就是性能度量(performance measure)。性能度量反映了任務需求,在對比不同模型的能力時,使用不同的性能度量往往會導致不同的評判結果。這意味着模型的"好壞"是相對的,什麼樣的模型是好的,不僅取決於算法和數據,還決定於任務需求。
在預測任務中,給定樣例集 ,其中 是示例 的真實標記。要評估學習器 的性能,就要把學習器預測結果 與真實標記 進行比較。
迴歸任務最常用的性能度量是"均方誤差"(mean squared error)
更一般的,對於數據分佈 和概率密度函數 ,均方誤差可描述爲
在數學中,[連續型隨機變量的概率密度函數(在不至於混淆時可以簡稱爲密度函數)是一個描述這個隨機變量的輸出值,在某個確定的取值點附近的可能性的函數。而隨機變量的取值落在某個區域之內的概率則爲概率密度函數在這個區域上的積分(。當概率密度函數存在的時候,累積分佈函數是概率密度函數的積分。
定義
對於一維實隨機變量 , 設它的積累分佈函數是 ,如果存在可測函數 ,滿足:,那麼 是一個連續型隨機變量,並且 是它的概率密度函數。
性質
這裏指的是一維連續隨機變量,多維連續變量也類似。
隨機數據的概率密度函數:表示瞬時幅值落在某指定範圍內的概率,因此是幅值的函數。它隨所取範圍的幅值而變化。
密度函數 具有下列性質:
2.3.1 錯誤率與精度
這是分類任務中最常用的兩種性能度量,既適用於二分類任務,也適用於多分類任務。錯誤率是分類錯誤的樣本數佔樣本總數的比例。精度則是分類正確的樣本佔樣本總數的比例。對樣例集 ,分類錯誤率的定義爲
精度則定義爲
更一般的,對於數據分佈 和概率密度函數,錯誤率與精度可分別描述爲
2.3.2 查準率、查全率與
以信息檢索爲例,我們經常會關心"檢索出的信息中有多少比例是用戶感興趣的" “用戶感興趣的信息中有多少被檢索出來了”。“查準率”(precision)與"查全率"(recall)是更爲適用於此類需求的性能度量。
對於二類分類問題,可將樣例根據其真實類別與學習器類別預測類別的組合劃分爲真正例(true postive)、假正例(false positive)、真反例(true negative)、假反例(false negative) 四種情形。令 、、、 分別表示其對應的樣例數,則顯然有$TP + FP + TN + FN = $ 樣例總數。分類結果的"混淆矩陣"(confusion matrix)如表 2.1 所示。
真實情況 | 預測結果 | |
正例 | 反例 | |
正例 | TP(真正例) | FN(假反例) |
反例 | FP(假正例) | TN(真反例) |
- TP:正確地標記爲正,即算法預測它爲正樣本,且這個樣本真實情況也是正樣本;
- FP:錯誤地標記爲正,即算法預測它爲正樣本,但這個樣本真實情況是負樣本;
- FN:錯誤地標記爲負,即算法預測它爲負樣本,仩這個樣本真實情況是正樣本;
- TN:正確地標記爲負,即算法預測它爲負樣本,且這個樣本真實情況也是負樣本;
所以有:
查準率和查全率是一對矛盾的度量。一般來說,查準率高時,查全率往往偏低;而查全率高時,查準率往往偏低。
在實際的模型評估中,單用Precision或者Recall來評價模型是不完整的,評價模型時必須用Precision/Recall兩個值。這裏介紹三種使用方法:平衡點(Break-Even Point,BEP)、F1度量、F1度量的一般化形式。
-BEP是產準率和查全率曲線中查準率=查全率時的取值,如下:
“平衡點”(Break-Even Point,簡稱 BEP)就是這樣一個度量,它是"查準率=查全率"時的取值。如上圖所示,算法的效果爲: ,但 BEP 還是過於簡化了些,更常用的是 度量:
是基於查準率與查全率的調和平均(harmonic mean) 定義的:
度量的一般形式——,能讓我們表達出對查準率/查全率的不同偏好,它定義爲:
其中, 度量了查全率對查準率的相對重要性;時退化爲標準的 ; 時,查全率有更大影響;時查準率有更大影響。
是加權調和平均:
與算法平均 和幾何平均 相比,調和平均更重視較小值。
很多時候,我們需要在 個二分類混淆矩陣上綜合考察查準率和查全率。一種直接的做法是先在各混淆矩陣上分別計算出查準率和查全率,記爲,再計算平均值,這樣就得到了"宏查準率"(macro-P)、“宏查全率”(macro-R),以及相應的"宏 F1"(macro-F1):
還可以先將各混餚矩陣的對應元素進行平均,得到 、 、、 的平均值,分別記爲 、、、 ,再基於這些平均值計算出"微查準率"(micro-P)、“微查全率(micro-P)” 和 "微 "(micro-F1):
2.3.3 ROC 與 AUC
很多學習器是爲了測試樣本產生一個實值或概率預測,然後將這個預測值與一個分類閾值(thresh)進行比較,若大於閾值則分爲正類,否則爲反類。
ROC 全稱是"受試者工作特徵"(Receiver Operating Characteristic) 曲線,它源於"二戰"中用於敵機檢測的雷達信號分析技術,二十世紀六七十年代開始被用於一些心理學、醫學檢測應用中,此後被引入機器學習領域。
ROC 曲線的縱軸是"真正例率"(True Positive Rate,簡稱 TPR),橫軸是"假正例率"(False Positive Rate,簡稱 FPR),兩者的定義爲:
若一個學習器 ROC 曲線被另一個學習器的曲線完全"包住",則可斷言後者的性能優於前者;若兩個學習器的 ROC 曲線發生交叉,則難以一般性地斷言兩者孰優孰劣。此時如果一定要進行比較,則較爲合理的判據是比較 ROC 曲線下的面積,即AUC(Area Under ROC Curve)。
從定義可知,AUC 可通過對 ROC 曲線下各部分的面積求和而得,假定ROC曲線是由座標爲 的點按序連接而形成,則 AUC 可估算爲
形式化地看,AUC考慮的是樣本預測的排序質量,因此它與排序誤差有緊密聯繫。給定 個正例和 個反例,令 和 分別表示正、反例集合,則排序"損失"(loss)定義爲
即考慮每一個對正、反例,若正例的預測值小於反例,則記一個"罰分",若相等,則記 0.5 個"罰分"。容易看出, 對應是 ROC 曲線之上的面積:若一個正例在 ROC 曲線上對應標記點的座標爲 ,則 恰是排序在其之前的反例佔的比例,即假正例率。因此有
2.4 比較檢驗
機器學習中性能比較這件事要比大家想像的複雜的多,這裏面涉及到幾個重要方面:
- 首先,我們希望比較的是泛化性能,然而通過實驗評估方法我們獲得的是測試集上的性能,兩者的對比結果可能未必相同;
- 測試集上的性能與測試集本身的選擇有很大關係,且不論使用不同大小的測試集會得到不同的結果,即使是使用相同大小的測試集,若包含的測試樣例不同,測試結果也會有不同;
- 很多機器學習算法本身有一定的隨機性,即便用相同的參數設置在同一個測試集上很多次運行,其結果也會有不同。
統計假設檢驗爲我們進行學習器性能比較提供了重要依據。常用的幾種機器學習性能比較方法有:
- 假設檢驗
- 交叉驗證 驗證
- McNemar 檢驗
- Friedman 檢驗與 Nemenyi 後續檢驗
2.5 偏差與方差
對學習算法除了通過實驗估計其泛化性能,人們往往還希望瞭解它"爲什麼"具有這樣的性能。“偏差—方差分解”(biase-variance decomposition)是解釋學習算法泛化性能的一種重要工具。
對測試樣本 , 令 爲 在數據集中的標記, 爲 的真實標記, 爲訓練集 上學得模型 在 上的預測輸出。以迴歸任務爲例,學習算法的期望預測爲
使用樣本數相同的不同訓練集產生的方差爲
噪聲爲
期望輸出與真實標記的差別稱爲偏差(bias),即
爲了便於討論,假定噪聲期望爲零,即 。通過簡單的多項式展開合併,可對算法的期望泛化誤差進行分解:
也就是說,泛化誤差可分解爲偏差、方差與噪聲之和。