畫圖解釋LAR算法的幾何意義
1)畫圖及文字解釋p74頁下半頁關於LAR算法所定義的一系列向量的幾何意義,及整個算法的幾何意義
迴歸模型: (共有p個變量)
給出具有n個樣本的樣本矩陣:
(j=1,...,p)
LAR算法:
1.標準化、中心化數據(使各向量爲單位向量,且 )
殘差: 初始係數:
2.(1)當前殘差
找出Xj,使得 ,Xj對應係數
(2)將從0到 增大,直到出現Xk,使得 ,其中 爲當前殘差
(3)改變Xj,Xk的係數,使向量 沿着Xj,Xk的角平分線移動,直到出現Xl,使得
爲當前殘差(圖中平移向量使得Xj,Xk,r2在同一起始點,Xj的係數從第一步賦予的值開始增大)
2.重複以上步驟,每一次改變係數使得向量在所有已選擇向量的角平分線上移動,得到新的向量,新的向量與當前殘差的相關係數與已選擇向量和當前殘差的相關係數相等,直到所有向量都被選中,所得到的係數即可確定迴歸方程。
2)畫圖及文字解釋p76頁關於理解LAR和Lasso的軌跡圖爲何如此相像
Lasso搜索路徑受條件影響,L.Arc Length從0增長時,正方形不斷變大,但在一定範圍內, 始終爲0, 不斷增大,直到加入。而LAR算法在執行第二步算法時,增大, 始終爲0,直到找到Xk,加入後纔有變化,因此兩者軌跡相似。
3)解釋增強LAR算法爲什麼可以進行變量淘汰
第三題不太懂。不知道是不是因爲變量間存在多重共線性,選擇其中一個即可。共線的向量只選擇一個。
參考資料:
煉數成金 畫圖解釋p74頁關於LAR算法所定義的一系列向量的幾何意義 ,理解LAR和Lasso的軌跡
http://f.dataguru.cn/forum.php?m ... 1&highlight=LAR
迴歸模型: (共有p個變量)
給出具有n個樣本的樣本矩陣:
(j=1,...,p)
LAR算法:
1.標準化、中心化數據(使各向量爲單位向量,且 )
殘差: 初始係數:
2.(1)當前殘差
找出Xj,使得 ,Xj對應係數
(2)將從0到 增大,直到出現Xk,使得 ,其中 爲當前殘差
(3)改變Xj,Xk的係數,使向量 沿着Xj,Xk的角平分線移動,直到出現Xl,使得
爲當前殘差(圖中平移向量使得Xj,Xk,r2在同一起始點,Xj的係數從第一步賦予的值開始增大)
2.重複以上步驟,每一次改變係數使得向量在所有已選擇向量的角平分線上移動,得到新的向量,新的向量與當前殘差的相關係數與已選擇向量和當前殘差的相關係數相等,直到所有向量都被選中,所得到的係數即可確定迴歸方程。
2)畫圖及文字解釋p76頁關於理解LAR和Lasso的軌跡圖爲何如此相像
Lasso搜索路徑受條件影響,L.Arc Length從0增長時,正方形不斷變大,但在一定範圍內, 始終爲0, 不斷增大,直到加入。而LAR算法在執行第二步算法時,增大, 始終爲0,直到找到Xk,加入後纔有變化,因此兩者軌跡相似。
3)解釋增強LAR算法爲什麼可以進行變量淘汰
第三題不太懂。不知道是不是因爲變量間存在多重共線性,選擇其中一個即可。共線的向量只選擇一個。
參考資料:
煉數成金 畫圖解釋p74頁關於LAR算法所定義的一系列向量的幾何意義 ,理解LAR和Lasso的軌跡
http://f.dataguru.cn/forum.php?m ... 1&highlight=LAR
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.