線性無關且共軛,表示爲x的基
這樣極小化括號的數,轉化爲n個一維的優化問題
這裏求最小值 隱含了,所以要求對稱正定,即強凸的。
共軛法
搜索步長是通過極小化得到的
即對於凸的二次函數,共軛算法的步長是可能精確計算得到的
證明
舉例
二維的問題,的等高線是橢圓,由於A是對角陣,所以對稱軸於行於座標軸,且e1與e2對於A是共軛
;
當A,不再是對角矩陣時,e1與e2 不再是A的共軛方向
2步之內無法找到問題的解
因此,座標方向法:當原始問題對應的矩陣A非對角時,我們可以對原問題作線性變化,使得新的newA 是對角的,然後可以使用共軛方向法在n 部內求得最優點。
一般性
第k步生成的殘差rk和前面的搜索方向正交
如何生成共軛搜索方向,兩種方法:特徵向量,和Gram -Schmidt 正交化。對於第一種有對於實對稱矩陣屬於不同特徵值的特徵向量相互正交,因此可以推出來這些特徵向量對於A 是共軛的
共軛梯度法
具體流程
對於和正交,則可以推出來n維空間中和n個線性無關向量都正交的話,這個向量一定是n向量,即是所求的解。
這些結論是依賴於初始點的選擇的,即是在(p0=-ro)
當非常接近時,第步迭代解非常接近精確 解
共軛梯度法在更新迭代方向時不僅利用了利用了上一步的迭代方向,同時利用了上一步的梯度信息,因此相對於最速下降法更快收斂
當條件數越小,越快,特別是當條件數爲1時,其單位矩陣,只需要一步便可以得到最優解
算法回速Pre conditioning
當特徵值 分部比較集中時,當分佈到1 附近時收斂更快。通過對變量線性變換,轉換成具有好的性質,即特徵值相對集中
上述的目標還是在解,但是爲了加速計算,先對x 作線性變換,代入上式得到關於的方程,求解出最優的來重構要求的x,
當然可以利用上面的程序直接求出x,是等價的
需要求的