ADMM深入理解並在論文裏面應用

ADMM和ALM的區別

https://blog.csdn.net/shanglianlm/article/details/46808793

 

拉格朗日對偶:

https://www.cnblogs.com/90zeng/p/Lagrange_duality.html

 

對偶函數例子:

https://blog.csdn.net/quiet_girl/article/details/79065343

共軛函數

https://blog.csdn.net/shenxiaolu1984/article/details/78194053

 

弄明白了爲什麼ADMM會比增強拉格讓日快,因爲增強拉格朗日方法的變量更新的時候沒有並行化處理,使得變量內部更新存在流水線的排隊性,而用ADMM把之前的變量分解成若干的小變量,各個小變量分別進行各自的迭代更新,會使得這個過程加速

https://blog.csdn.net/shanglianlm/article/details/45919679

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章