Justin Romberg 壓縮感知:利用凸優化實現稀疏信號重建的科普

  Justin Romberg  壓縮感知:利用凸優化實現稀疏信號的重建的科普

 

1.利用凸優化算法解決壓縮感知問題時,問題通常被分爲2類,一類是轉化爲線性方程組的問題(LPs問題),另一類是轉化爲二次凸規劃的問題(SOCPs問題),其中LPs問題採用路徑追蹤原始對偶(primal-dual)算法,SOCPs問題採用內點算法中的對數障礙(log-barrier)法

 

等式約束的最小化l1範數問題描述如下:

                    

 

AM*N的欠定矩陣,x是要採樣的信號,b是採樣值,大意就是,在方程組條件不足的情況下求解出原始信號x,當x1範數最小的時候,x差不多就是我們想要的結果了。

L1範數的數學表述形式如下:(本質上來說,就是把矩陣裏面的數值求取絕對值然後加起來)

  

由這個問題引出了著名的基追蹤算法(BP算法),算法的原理就是不斷尋找l1範數最小的x來解釋我們採樣到的信號b,如果我們找到了一種足夠稀疏的信號(l1範數足夠小的信號)

那麼我們就認爲我們的方程組找到了最合適的解。

 

2.我們經常能夠看到最小化l1範數的誤差估計問題,誤差估計數學問題描述爲如下的問題

 

                            

AM*N的滿秩矩陣,y是得到的採樣值,假設,我們通過信道採樣y的時候難免信號會有丟失或者噪聲,也就是說我們的得到的y本質上是y=y+e,這裏的e就是噪聲信號。,同樣這個噪聲估計的問題也是一個LP問題

 

3.帶有二次約束問題的最小化l1範數問題:

這個問題我們用數學公式表達出來是這樣的:

                   

1問題的基礎上我們把原來的等式轉爲二次約束模型。在這裏ε表示一個確定的參數,把原來1問題中的帶有等式約束的模型,通過引入鬆弛變量的方式轉爲了二次凸規劃(SOCP)的問題。這個數學公式的意思是,尋找出一個足夠稀疏的信號x滿足,在這裏e代表一個很小的誤差變量

4.有界冗餘相關的l1範數最小化

這種算法也叫Dantzig算法

數學問題描述如下:

 

我們重新描述了上面的問題,轉爲上面的公式這裏的伽馬是一個具體的參數,在1問題裏面我們重新引入一種鬆弛變量,這個數學問題的意思是,找到一種儘可能稀疏的x使得,Ax-b的剩餘項與A*的任何一列最大程度的不相關A*(Ax-b).

所以問題4中的數學模型是一種LP問題

5.在圖像上面引入TV模型,重寫上面的公式的表述形式

如果我們要把壓縮感知的模型應用在圖像上,因爲圖像的梯度是稀疏的,這裏我們用梯度來描述整個圖像

定義梯度的操作算子:

 

分別定義了水平方向和豎直方向的梯度算子這裏描述爲hv方向上的梯度

因爲整個圖像每個點都是梯度的,這裏我們把梯度全部加起來(也就全變分)

 

這就是傳說中的(全變分)TV模型,(全變分)TV模型國內研究的人也很多,常用來做去噪和復原的算法,相關論文有很多。

有了上面的定義,我們把上面的數學模型應用在圖像復原,上面的每一個數學模型都可以寫成SOCP(二次規劃)問題

 

A.帶有等式約束的最小化TV模型

                

B.帶有二次規劃的最小化TV模型

                

C.Dantzig TV模型


下一章我將會介紹內點算法。

             

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章