ADMM和ALM的區別
https://blog.csdn.net/shanglianlm/article/details/46808793
拉格朗日對偶:
https://www.cnblogs.com/90zeng/p/Lagrange_duality.html
對偶函數例子:
https://blog.csdn.net/quiet_girl/article/details/79065343
共軛函數
https://blog.csdn.net/shenxiaolu1984/article/details/78194053
弄明白了爲什麼ADMM會比增強拉格讓日快,因爲增強拉格朗日方法的變量更新的時候沒有並行化處理,使得變量內部更新存在流水線的排隊性,而用ADMM把之前的變量分解成若干的小變量,各個小變量分別進行各自的迭代更新,會使得這個過程加速
https://blog.csdn.net/shanglianlm/article/details/45919679