用Python實現最速下降法求極值

對於一個多元函數f(x)=f(x1,x2,,xn) ,用最速下降法(又稱梯度下降法)求其極小值的迭代格式爲

xk+1=xk+αkdk

其中dk=gk=f(xk) 爲負梯度方向,即最速下降方向,αk 爲搜索步長。

一般情況下,最優步長αk 的確定要用到線性搜索技術,比如精確線性搜索,但是更常用的是不精確線性搜索,主要是Goldstein不精確線性搜索和Wolfe法線性搜索。

爲了調用的方便,編寫一個Python文件,裏面存放線性搜索的子函數,命名爲linesearch.py,這裏先只編寫了Goldstein線性搜索的函數,關於Goldstein原則,可以參看最優化課本。

線性搜索的代碼如下(使用版本爲Python3.3):

'''
線性搜索子函數
'''

import numpy as np
import random

def goldsteinsearch(f,df,d,x,alpham,rho,t):

    flag=0

    a=0
    b=alpham
    fk=f(x)
    gk=df(x)

    phi0=fk
    dphi0=np.dot(gk,d)

    alpha=b*random.uniform(0,1)

    while(flag==0):
        newfk=f(x+alpha*d)
        phi=newfk
        if(phi-phi0<=rho*alpha*dphi0):
            if(phi-phi0>=(1-rho)*alpha*dphi0):
                flag=1
            else:
                a=alpha
                b=b
                if(b<alpham):
                    alpha=(a+b)/2
                else:
                    alpha=t*alpha
        else:
            a=a
            b=alpha
            alpha=(a+b)/2
    return alpha

上述函數的輸入參數主要包括一個多元函數f,其導數df,當前迭代點x和當前搜索方向d,返回值是根據Goldstein準則確定的搜索步長。

我們仍以Rosenbrock函數爲例,即有

f(x)=100(x2x21)2+(1x1)2

於是可得函數的梯度爲

g(x)=f(x)=(400(x2x21)x12(1x1),200(x2x21))T

最速下降法的代碼如下:

"""
最速下降法
Rosenbrock函數
函數 f(x)=100*(x(2)-x(1).^2).^2+(1-x(1)).^2
梯度 g(x)=(-400*(x(2)-x(1)^2)*x(1)-2*(1-x(1)),200*(x(2)-x(1)^2))^(T)
"""

import numpy as np
import matplotlib.pyplot as plt
import random
import linesearch
from linesearch import  goldsteinsearch

def rosenbrock(x):
    return 100*(x[1]-x[0]**2)**2+(1-x[0])**2

def jacobian(x):
    return np.array([-400*x[0]*(x[1]-x[0]**2)-2*(1-x[0]),200*(x[1]-x[0]**2)])


X1=np.arange(-1.5,1.5+0.05,0.05)
X2=np.arange(-3.5,2+0.05,0.05)
[x1,x2]=np.meshgrid(X1,X2)
f=100*(x2-x1**2)**2+(1-x1)**2; # 給定的函數
plt.contour(x1,x2,f,20) # 畫出函數的20條輪廓線

def steepest(x0):

    print('初始點爲:')
    print(x0,'\n')    
    imax = 20000
    W=np.zeros((2,imax))
    W[:,0] = x0
    i = 1     
    x = x0
    grad = jacobian(x)
    delta = sum(grad**2)  # 初始誤差


    while i<imax and delta>10**(-5):
        p = -jacobian(x)
        x0=x
        alpha = goldsteinsearch(rosenbrock,jacobian,p,x,1,0.1,2)
        x = x + alpha*p
        W[:,i] = x
        grad = jacobian(x)
        delta = sum(grad**2)
        i=i+1

    print("迭代次數爲:",i)
    print("近似最優解爲:")
    print(x,'\n')    
    W=W[:,0:i]  # 記錄迭代點
    return W

x0 = np.array([-1.2,1])
W=steepest(x0)

plt.plot(W[0,:],W[1,:],'g*',W[0,:],W[1,:]) # 畫出迭代點收斂的軌跡
plt.show()

爲了實現不同文件中函數的調用,我們先用import函數導入了線性搜索的子函數,也就是下面的2行代碼

import linesearch
from linesearch import  goldsteinsearch

當然,如果把定義goldsteinsearch函數的代碼直接放到程序裏面,就不需要這麼麻煩了,但是那樣的話,不僅會使程序顯得很長,而且不便於goldsteinsearch函數的重用。

此外,Python對函數式編程也支持的很好,在定義goldsteinsearch函數時,可以允許抽象的函數f,df作爲其輸入參數,只要在調用時實例化就可以了。與Matlab不同的是,傳遞函數作爲參數時,Python是不需要使用@將其變爲函數句柄的。

運行結果爲

初始點爲:
[-1.2  1. ] 

迭代次數爲: 1504

近似最優解爲:
[ 1.00318532  1.00639618]

迭代點的軌跡爲
steep1

由於在線性搜索子程序中使用了隨機函數,初始搜索點是隨機產生的,因此每次運行的結果不太相同,比如再運行一次程序,得到

初始點爲:
[-1.2  1. ] 

迭代次數爲: 1994

近似最優解爲:
[ 0.99735222  0.99469882] 

所得圖像爲
steep2

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章