Peng, Y., Ganesh, A., Wright, J., Xu, W., & Ma, Y. (2012). RASL: Robust alignment by sparse and low-rank decomposition for linearly correlated images. IEEE Transactions on Pattern Analysis and Machine Intelligence, 34(11), 2233-2246.
本文是這篇 PAMI 期刊論文的筆記,主要是對文中的理論方法進行展開詳解。本人學術水平有限,文中如有錯誤之處,敬請指正。
摘要:此文研究的問題是同時對齊(配準)一批線性相關的圖像,而排除一些破壞(如遮擋)。此文的方法在圖像變換域裏尋找一個最優集,使得變換之後的圖像矩陣可以被分解爲一個錯誤部分的稀疏矩陣,和一個恢復的對齊的低秩的矩陣。此文爲了解決這樣一個具有挑戰性的優化問題,使用了一系列的凸規劃,最小化稀疏矩陣的
原始圖像 |
對齊之後的圖像 |
低秩部分 |
誤差部分 |
如圖所示,本文的方法是將一批相似度很高的圖像(不僅是人臉)作爲輸入,首先進行平面的對齊(配準),然後通過本文的 RASL 算法,將它們分解爲低秩部分(相似度非常高)和稀疏誤差部分(圖像之間差異值最大的部分)。
此論文並不是一項開山之作,而是在之前的研究基礎之上的改進版本。首先介紹一下這個研究課題組的 leader: Prof. Yi Ma, Senior Member, IEEE, University of Illinois at Urbana-Champaign. 研究成果都展示在 這裏 了,論文和代碼都公開了,可以供感興趣的讀者下載,自行研究。
Robust Parameterized Component Analysis 1 算法雖然也擬合一個低階模型,有效地減少了損壞和遮擋的影響。但是這是一個非凸優化問題,沒有理論保證魯棒性和收斂率。最近提出的 Rank-Sparsity 2, RPCA 3 秩最小化已經證明了它確實有可能通過凸優化方法,有效地恢復低秩矩陣。
要想看懂此文之前,還需要一點預備知識,可以學習 Alternating Direction Method 4,Singular Value Thresholding 5,Dual Method 6 和 Augmented Lagrange Multiplier (ALM) Method 7。這些方法思想都和很簡單。
2 圖像對齊通過矩陣的秩最小化
2.1 矩陣的秩作爲衡量圖像的相似度
假設我們有
那麼這個矩陣
2.2 建模非對齊作爲形變
圖像的偏差使得在許多應用中存在困難。上面的低秩矩陣的模型,只要在有一點圖像未對齊的情況下,就會失效。文中提到,由於圖像的3D結構未知,假設圖像的形變只在圖像平面上。於是,可以將圖像未對齊建模爲形變。具體來說,如果
在大多數實際應用中,我們把形變建模爲有限維度組
把上面兩個模型結合起來:假設
有很小的秩,其中
2.3 建模損壞和遮擋作爲大、稀疏的誤差
因爲圖像之中會有一些部分被遮擋,或者損壞,但是由於這些誤差出現的區域小,頻率低,我們把它們建模爲稀疏的誤差。除此之外,圖像中還有常見的噪聲,但是此文沒有過多考慮,只假設噪聲是可忽略的。
用
其中
其中
在實際圖像中,一般都會有小的加性噪聲,上述問題略作修改
其中
3 迭代凸優化求解
3.1 凸鬆弛
上面的優化問題雖然很直觀,但是矩陣的秩 rank 和
理論中考慮,參數
3.2 迭代線性化
問題求解的難度還在於約束
其中
因爲這個線性近似只在局部有效,不能直接求解
RASL 算法步驟:
INPUT: 圖像
WHILE 沒有收斂 DO // 其中收斂的條件是目標函數在連續兩次迭代的改變量小於預先設定的閾值
Step 1: 計算關於形變參數
Step 2: 變形並歸一化圖像矩陣:
Step 3(內循環): 求解線性凸優化問題;
Step 4: 更新形變參數
END WHILE
OUTPUT: 輸出
3.3 收斂性和最優性證明
涉及的內容太多,這裏不做詳細解釋,可參考原論文。
3.4 増廣 Lagrangian 乘子法
算法中主要的計算代價就是 Step 3,這是一個半正定的線性凸優化問題。此文使用快速的一階方法,増廣 Lagrangian 乘子法。首先定義
其中
直接最小化多個參數的 Lagrangian 函數很困難,那麼採用近似求解的方式,即每一次分別最小化一個變量,而固定其他變量,
迭代的每一步都可以求出閉式解,計算的效率很高。爲了更清楚的說明解,還要定義軟閾值(soft-thresholding)或收縮(shrinkage)操作,
其中
RASL 內循環:
INPUT:
WHILE 沒有收斂 DO // 其中收斂的條件是
// * 中間3步的詳細的推導在 Appendix *
END WHILE
OUTPUT: 輸出最優解
其中
實驗結果表明,
該算法收斂性非常好,速度也比此論文作者之前的方法 Accelerated proximal gradient (APG) 9 快 5~10 倍左右。
儘管増廣 Lagrangian 乘子法的收斂性已經在優化的文獻中都已經給出證明,但是沒有證明它的近似方法(本文采用的迭代優化每一個變量)也能收斂。
困難就在於這裏有三項變量在交替最小化,而 Alternating Direction Method of Multipliers 方法交替優化兩項變量已經在優化文獻中給出了證明。
然而 Yuan et al. 10 表明三項變量交替優化過程中收斂在實際上和理論上有差距,而且收斂速度比較慢。
總之,目前要嚴格證明此論文方法的收斂性還很困難。
3.5 實現細節
實驗驗證
知道了本論文的理論之後,去看實驗已經沒有什麼難處了,本論文的實驗有好幾個,但是給人印象是沒有很多與其它論文的定量對比結果。這裏不再一一講述。
Appendix
這是本人根據對論文的理解,自己推導了
其中
1. 求解 Ak+1 ,
求當梯度爲 0 時,
證畢。
2. 求解 Ek+1 ,
求當梯度爲 0 時,
證畢。
3. 求解 Δτk+1 ,
求當梯度爲 0 時,
證畢。
- E. Cande`s, X. Li, Y. Ma, and J. Wright, “Robust Principal Component Analysis?” J. ACM, vol. 58, no. 3, pp. 1-37, 2011. ↩
- V. Chandrasekaran, S. Sanghavi, P. Parrilo, and A. Willsky,“Rank-Sparsity Incoherence for Matrix Decomposition,” SIAM J. Optimization, vol. 21, no. 2, pp. 572-596, 2011. ↩
- E. Cande`s, X. Li, Y. Ma, and J. Wright, “Robust Principal Component Analysis?” J. ACM, vol. 58, no. 3, pp. 1-37, 2011. ↩
- Yuan, Xiaoming, and Junfeng Yang. “Sparse and low-rank matrix decomposition via alternating direction methods.” preprint 12 (2009). ↩
- E. Cande`s, J. Cai, and T. Shen, “A Singular Value Thresholding Algorithm for Matrix Completion,” SIAM J. Optimization, vol. 20, no. 4, pp. 1956-1982, 2010. ↩
- Lin, Z., Ganesh, A., Wright, J., Wu, L., Chen, M., & Ma, Y. (2009). Fast convex optimization algorithms for exact recovery of a corrupted low-rank matrix. Computational Advances in Multi-Sensor Adaptive Processing (CAMSAP), 61. ↩
- Z. Lin, M. Chen, L. Wu, and Y. Ma, “The Augmented Lagrange Multiplier Method for Exact Recovery of Corrupted Low-Rank Matrices,” Technical Report UILU-ENG-09-2215, Univ. of Illinois at Urbana-Champaign, 2009. ↩
- Y. Ma, S. Soatto, J. Kosecka´, and S.S. Sastry, An Invitation to 3-D Vision. Springer, 2004. ↩
- K. Toh and S. Yun, “An Accelerated Proximal Gradient Algorithms for Nuclear Norm Regularized Least Squares Problems,”Pacific J. Optimization, vol. 6, pp. 615-640, 2010. ↩
- X. Yuan and M. Tao, “Recovering Low-Rank and Sparse Components of Matrices from Incomplete and Noisy Observations,”SIAM J. Optimization, vol. 21, no. 1, pp. 57-81, 2011. ↩