小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

優(yōu)化算法總結

 印度阿三17 2019-08-07

1、梯度下降法

給定一個目標函數(shù)f(x)和初始點x0

△xt = -▽f(xt)

xt 1 = x ?η△xt

停止條件:當 |△xt| <?ε時停止

三大問題:局部最小值、鞍點、停滯區(qū)。

1.1 局部最小值(極值)

1.2 停滯區(qū)

函數(shù)有一段很平的區(qū)域,這時梯度很小,權值就更新的特別慢。

1.3 鞍點

鞍點處梯度為0,但不是局部最大值也不是局部最小值。

鞍點坐在的位置在一個方向上式最大值,在另一個方向上是最小值。

二、帶沖量的梯度下降法

給定一個目標函數(shù)f(x)和初始點x0,初始動量v0

△xt?= -▽f(xt)

vt 1 =?γvt ?η△xt

xt 1?= xt ?vt 1

停止標準:沖量小于一個值,或梯度小于一個值,或給定一個迭代次數(shù)

在梯度下降法的基礎上,加上一個沖量的項,每次迭代乘一個衰減系數(shù)。

三、NAG(Nesterov accelerated gradient descent)

改進帶沖量的梯度下降法。

給定一個目標函數(shù)f(x)和初始點x0,初始動量v0

△xt?= - ▽f( xt ?vt?)

vt 1?=?γvt? ?η△xt

xt 1?= xt? ?vt 1

可以發(fā)現(xiàn),求梯度的位置不在是當前位置的梯度,而是沿著當前沖量乘衰減系數(shù)前進一步之后所在的位置。

例如騎自行車下坡,原來是根據(jù)當前的坡度決定車怎么走,而現(xiàn)在是根據(jù)前方的坡度來決定車往哪兒拐。

四、牛頓法

1、牛頓-拉普森算法(NR newton-Raphson)

用來尋找實值方程的近似解。

給定方程f(x)= 0,初始點x0

△x = - f(xt) / f'(xt)

xt 1 = xt ?△x

停止:如果|f(x)| <?ε

2、牛頓法求極值

給定f(x)和初始點x0

xt 1 = xt - f'(xt)/f''(xt)

停止:|?f'(xt)?| <?ε

若f(x △x)是極小值點,將其泰勒展開到二階:

函數(shù)對稱軸出就是極值,則:

牛頓法每次迭代,在所在的位置對要求解的函數(shù)做一次二次近似,然后直接用這個近似的最小值作為下一次迭代的位置。在高維下計算量有點大。

五、學習率衰減

前期使用叫大的學習率,后期使用較小的學習率。

lr = lrbase x?γ| step/stepsize |

基礎學習率;

γ是小于1 的衰減系數(shù);

step:當前迭代步數(shù)

stepsize:總共迭代次數(shù)

?

來源:https://www./content-1-381651.html

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多