周志華《機器學習》勘誤表

周志華老師的《機器學習》的勘誤。當時買的是第一次印刷的版本,現在都是第10次印刷了... 轉發作收藏

原帖地址: http://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/MLbook2016.htm

勘誤修訂

[部分修訂是爲了更便於讀者理解,並非原文有誤]

(第一版第十次印刷, 2016年9月):

(第一版第九次印刷, 2016年8月):

(第一版第八次印刷, 2016年5月):

p.5, 第2段倒數第3行: "3、2、2" --> "3、3、3"p.5, 第2段倒數第2行: "$4 \times 3 \times 3 + 1 = 37$" --> "$4 \times 4 \times 4 + 1 = 65$"p.26, 邊注第2行: "2.6 節" --> "2.5 節"p.41, 式(2.33)上面一行: "正態分佈, 且均值 …… 因此變量" --> "正態分佈. McNemar檢驗考慮變量"p.41, 式(2.33)旁加邊注: "$e_{01} + e_{10}$ 通常很小, 需考慮連續性校正, 因此分子中有 $-1$ 項"p.45, 第一個邊注: "由式(2.37)" --> "考慮到噪聲不依賴於$f$, 由式(2.37)"p.63, 式(3.45)下面一行: "$N-1$個最大" --> "$d'$個最大非零"p.63, 式(3.45)下面第2行: "矩陣." --> "矩陣, $d'\le N-1$."; 加邊注: "最多有$N-1$個非零特徵值"p.63, 式(3.45)下面第3行: "$N-1$維" --> "$d'$維"p.63, 式(3.45)下面第4行: "$N-1$通常遠小於數據原有的屬性數" --> "$d'$通常遠小於數據原有的屬性數$d$"p.100, 圖5.5, 左圖最上面的 "閾值$0.5$" --> "閾值$1.5$"p.100, 圖5.5, 左圖最右邊的 "閾值$0.5$" --> "閾值$-1.5$"p.100, 圖5.5, 左圖中間的"1  -1  -1  1" --> "1  1  -1  -1"p.125, 式(6.18): "$y_s$" --> "$1/y_s$"p.136, 式(6.54): 右邊最後一項中的四處 "$i$" --> "$j$"p.136, 式(6.54): 右邊最後一項中最後的 "${\bm x}$" --> "${\bm x}_i$"p.152, 第三個式子等號右端: "$0.375$" --> "$0.625$"p.153, 第3行: "$0.038$" --> "$0.063$"p.153, 第6行: "$0.038$" --> "$0.063$"p.160, 式(7.29)下面第2行: "需多少字節來描述$D$" --> "對$D$描述得有多好";加邊注: "可以從統計學習角度理解, 將兩項分別視爲結構風險和經驗風險"p.239, 式(10.39)第二行式子: 去掉上標 "$2$"p.244, 第13行: "Locally" --> "Nonlinear dimensionality reduction by locally"p.244, 第14行: "2316" --> "2326"p.249, 式(11.2): "$i=1$" --> "$k=1$"p.253, 倒數第5行: "[Boyd and Vandenberghe, 2004]" --> "[Combettes and Wajs, 2005]"p.263, 倒數第4行, 插入: "Combettes, P. L. and V. R. Wajs. (2005). ``Signal recovery by proximal forward-backward splitting.'' \textit{Mutiscale Modeling & Simulation}, 4(4):1168--1200."p.277, 式(12.29): "$E(h) - \hat{E}(h)$" --> "$\left| E(h) - \hat{E}(h) \right|$"p.299, 式(13.9)後第三段第2行: "關於 $D_u$" --> "涉及 $C_u$"

(第一版第七次印刷, 2016年4月):

p.42, 表2.5下面一段的第三行: "服從正態分佈,其均值" --> "的均值"p.42, 倒數第二行加邊注: "原始檢驗要求$k$較大(例如$>30$),若$k$較小則傾向於認爲無顯著區別"

(第一版第六次印刷, 2016年4月):

p.56, 圖3.1中,紅色第一和第二個點的座標互換p.114, 圖5.15中, 卷積層 16@10x10 和 採樣層 16@5x5 各去掉 8 個方塊p.301, 式(13.12)的下一行: "$({\bm f}_l^{\rm T}\,{\bm f}_u^{\rm T})^{\rm T}$" --> "$({\bm f}_l^{\rm T}; {\bm f}_u^{\rm T})$"p.372, 圖16.2: 從"s=健康"到"s=溢水"的 "r=1" --> "r=-1"p.376, 圖16.5的邊注: "第 4 行中式(16.4)的參數" --> "該參數在第4行使用"p.385, 第二行: "在使用策略時並不需要$\epsilon-$貪心" --> "而不是爲了最終使用"p.387, 倒數第二行: "$\epsilon-$貪心策略, 而執行(第5行)的是原始策略" --> "原始策略, 而執行(第4行)的是$\epsilon-$貪心策略"p.393, 第四段第一行: 去掉 "[Kuleshov and Precup, 2000]和"p.395, 去掉最後一行p.396, 去掉第一行p.402, 式(A.32)加邊注: "機器學習中 $\bf W$ 通常是對稱矩陣"

(第一版第五次印刷, 2016年3月):

p.62, 第1行加邊注: "$(\bm{\mu}_0 - \bm{\mu}_1)^{\rm T} \bm{w}$ 是標量"p.78, 圖4.4, 從右往左數: 第二個葉結點改爲“好瓜”,第三個葉結點改爲“壞瓜”p.85, 圖4.8, 從右往左數: 第二個葉結點改爲“好瓜”,第三個葉結點改爲“壞瓜”p.85, 圖4.8, 中間分支底層: “硬挺”--> “硬滑”p.89, 圖4.9, 中間分支底層: “硬挺”--> “硬滑”p.103, 最後一行的式子: 求和的"$q$" --> "$l$"p.399, 式(A.9): "$A_{1 \sigma n}$" --> "$A_{n \sigma n}$"p.400, 第1行: "(1,4,3,2)" --> "(3,1,2)"p.402, 式(A.32)最後一行的式子中: "$2{\mathbf A}$" --> "$2{\mathbf A}^{\rm T}$"

(第一版第四次印刷, 2016年3月):

p.59, 式(3.27)加邊注: "考慮 $y_i \in \{0, 1\}$"

(第一版第三次印刷, 2016年3月):

p.15, 第5行: "居功" --> "厥功"p.55, 最後一行: 式子括號中的逗號改爲分號p.125, 第3行: "減小" --> "增大"p.125, 第4行,第6行: "減幅" --> "增幅"p.125, 第5行: "減小" --> "增長"

(第一版第二次印刷, 2016年2月):

p.38, 第6行: "$\epsilon^{m'}$" --> "${m \choose m'} \epsilon^{m'}$"p.119, 第14行: "318--362" --> "533--536"p.404, 式(B.3)最後一行的式子 --> "$\lambda g({\bm x})=0$"

(第一版第一次印刷, 2016年1月):

p.6, 圖1.2: 圖中兩處"清脆" --> "濁響"p.28, 第3段倒數第2行: "大量" --> "不少"p.28, 邊注: "例如 ……上百億個參數" --> "機器學習常涉及兩類參數: 一類是算法的參數, 亦稱"超參數", 數目常在10以內; 另一類是模型的參數, 數目可能很多, 例如……上百億個參數. 兩者調參方式相似, 均是產生多個模型之後基於某種評估方法來進行選擇; 不同之處在於前者通常是由人工設定多個參數候選值後產生模型, 後者則是通過學習來產生多個候選模型(例如神經網絡在不同輪數停止訓練)."p.31, 倒數第3行: "Event" --> "Even"p.256, 第4段: "固定住${\bf \alpha}_i$" --> "以${\bf \alpha}_i$爲初值"p.256, 最後一段第1行: "${\bf E}_i =$" --> "${\bf E}_i = {\bf X} - $"p.385, 式(16.25)和(16.26): 兩處"$r_i$" --> "$R_i$"p.385, 式(16.25)下一行: "若改用……" --> "其中$R_i$表示第$i$條軌跡上自狀態$x$至結束的累積獎賞. 若改用……"p.386, 式(16.28)下一行: "始終爲1" --> "對於$a_i=\pi(x_i)$始終爲1"p.386, 圖16.11, 第4步: 兩處 "$\pi(x)$" --> "$\pi(x_i)$"
p.386, 圖16.11, 第6步的式子 --> "$R=\frac{1}{T-t}\left(\sum_{i=t+1}^T r_i\right) \prod_{i=t+1}^{T-1} \frac{\mathbb I(a_i=\pi(x_i))}{p_i}$"
p.386, 圖16.11, 邊注"計算修正的累積獎賞." --> "計算修正的累積獎賞. 連乘內下標大於上標的項取值爲1."; 去掉邊注"重要性採樣係數."

發佈了33 篇原創文章 · 獲贊 225 · 訪問量 50萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章