热门问题
时间线
聊天
视角
梯度下降法
来自维基百科,自由的百科全书
Remove ads
梯度下降法(英語:Gradient descent)是一個一階最佳化算法,通常也稱為最陡下降法,但是不該與近似積分的最陡下降法(英語:Method of steepest descent)混淆。 要使用梯度下降法找到一個函數的局部極小值,必須向函數上當前點對應梯度(或者是近似梯度)的反方向的規定步長距離點進行疊代搜索。如果相反地向梯度正方向疊代進行搜索,則會接近函數的局部極大值點;這個過程則被稱為梯度上升法。
描述

梯度下降方法基於以下的觀察:如果實值函數在點處可微且有定義,那麼函數在點沿著梯度相反的方向 下降最多。
因而,如果
對於一個足夠小數值時成立,那麼。
考慮到這一點,我們可以從函數的局部極小值的初始估計出發,並考慮如下序列 使得
- 。
因此可得到
如果順利的話序列收斂到期望值的局部極小值。注意每次疊代步長可以改變。
右側的圖片示例了這一過程,這裡假設定義在平面上,並且函數圖像是一個碗形。藍色的曲線是等高線(水平集),即函數為常數的集合構成的曲線。紅色的箭頭指向該點梯度的反方向。(一點處的梯度方向與通過該點的等高線垂直)。沿著梯度下降方向,將最終到達碗底,即函數局部極小值的點。
Remove ads
梯度下降法處理一些複雜的非線性函數會出現問題,例如Rosenbrock函數
其最小值在處,數值為。但是此函數具有狹窄彎曲的山谷,最小值就在這些山谷之中,並且谷底很平。最佳化過程是之字形的向極小值點靠近,速度非常緩慢。
下面這個例子也鮮明的示例了"之字"的上升(非下降),這個例子用梯度上升(非梯度下降)法求的局部極大值(非局部極小值)。
Remove ads
梯度下降法的缺點包括:[1]
- 靠近局部極小值時速度減慢。
- 直線搜索可能會產生一些問題。
- 可能會「之字型」地下降。
上述例子也已體現出了這些缺點。
參閱
參考文獻
外部連結
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads