【机器学习】拟牛顿下降优化方法-BFGS

  牛顿法是求解最优化,理论上最好最精确的方法,公式为:xk+1=xkf(xk)f(xk) ,原理是求解导数为0的情况。如果xk 是一个高维数据,且函数f(x) 非常复杂,那么求解1/f(x) 就是很麻烦的过程。拟牛顿法的思路是,在牛顿法的基础上,对1/f(x) 做个近似估计就行了,不需要精确计算。这样虽然结果会有些差异,但是速度上来了。
  拟牛顿法 基于原函数f(xk+1) 关于f(xk) 的二阶泰勒展开。设

f(xk)=f(xk+1)+f(xk+1)(xkxk+1)+12(xkxk+1)Tf(xk+1)(xkxk+1)+o(xk+1)
f(xk+1)=Bk+1 ,去掉余项o(xk+1) ,对xk 求导有f(xk)=f(xk+1)+Bk+1(xkxk+1) ,解出
Bk+1=f(xk)f(xk+1)xkxk+1=f(xk+1)f(xk)xk+1xkxk+2=xk+1λf(xk+1)/Bk+1
由于包含要求解的xk+1 ,我们只能试着取一个值,随机取值风险很大,上述方程只能作为拟牛顿方程成立的一个必要条件。。
  BFGS算法是一种迭代拟牛顿法,在满足上述必要条件的情况,保证了计算过程中的稳定,具体证明太难了。设Bk+1=Bk+δB 。数学家用了一个很技巧性很偶然的方法,令δB=αuuT+βvvT ,则
Bk+1=Bk+αuuT+βvvTBk+1(xk+1xk)=f(xk+1)f(xk)=Bk(xk+1xk)+[αuT(xk+1xk)]u+[βvT(xk+1xk)]v
αuT(xk+1xk)=1βvT(xk+1xk)=1u=f(xk+1)f(xk)v=Bk(xk+1xk) ,刚好恒等式成立。于是有
α=1[f(xk+1)f(xk)]T(xk+1xk)β=1[Bk(xk+1xk)]T(xk+1xk)=1(xk+1xk)TBk(xk+1xk)
其中Bk=BTk ,原理是我们近似认为B是二阶导,当原函数是一元函数时,B是常量,转置就是本身;当原函数是多元函数时,B近似海森矩阵,表示为
2fx212fx2x1...2fx1x22fx22............
显然B可以认为是一个对称矩阵。
  获得上述式子后,令sk=xk+1xk,yk=f(xk+1)f(xk 我们写得
Bk+1=Bk+sksTkyTkskBksksTkBksTkBKsk
值得注意的是,Bk+1 的表达式还是包含未知的xk+1 。定义步长参数λk ,遍历计算f(xk+λkdk)dk=f(xk)/Bk ,取其中函数值最小时的λk ,即求解λk=argminf(xk+λdk) ,近似得到sk=λk(f(xk)/Bk) ,然后代入Bk+1 表达式即可。当然λk 还有一些设置方法。我们用上述方法预先取的值,一般都受到BFGS本身的约束而不会太离谱。

  BFGS方法步骤如下:
  1、给定初值x0 ,收敛阈值η ,初始二阶导B0=Ik=0
  2、计算得到dk=f(xk)/Bk ,一般Bk 是可以求逆的
  3、解λk=argminf(xk+λdk) ,得到xk+1=xkλkdk
  4、如果|f(xk+1)|<η ,终止运行
  5、计算yk=f(xk+1f(xk)),sk=λkdk ,代入Bk+1 求解方程,求取Bk+1
  6、k=k+1,从步骤1开始。

发布了114 篇原创文章 · 获赞 140 · 访问量 42万+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章