电竞比分网-中国电竞赛事及体育赛事平台

分享

優(yōu)化算法總結(jié)

 印度阿三17 2019-08-07

1、梯度下降法

給定一個(gè)目標(biāo)函數(shù)f(x)和初始點(diǎn)x0

△xt = -▽f(xt)

xt 1 = x ?η△xt

停止條件:當(dāng) |△xt| <?ε時(shí)停止

三大問題:局部最小值、鞍點(diǎn)、停滯區(qū)。

1.1 局部最小值(極值)

1.2 停滯區(qū)

函數(shù)有一段很平的區(qū)域,這時(shí)梯度很小,權(quán)值就更新的特別慢。

1.3 鞍點(diǎn)

鞍點(diǎn)處梯度為0,但不是局部最大值也不是局部最小值。

鞍點(diǎn)坐在的位置在一個(gè)方向上式最大值,在另一個(gè)方向上是最小值。

二、帶沖量的梯度下降法

給定一個(gè)目標(biāo)函數(shù)f(x)和初始點(diǎn)x0,初始動(dòng)量v0

△xt?= -▽f(xt)

vt 1 =?γvt ?η△xt

xt 1?= xt ?vt 1

停止標(biāo)準(zhǔn):沖量小于一個(gè)值,或梯度小于一個(gè)值,或給定一個(gè)迭代次數(shù)

在梯度下降法的基礎(chǔ)上,加上一個(gè)沖量的項(xiàng),每次迭代乘一個(gè)衰減系數(shù)。

三、NAG(Nesterov accelerated gradient descent)

改進(jìn)帶沖量的梯度下降法。

給定一個(gè)目標(biāo)函數(shù)f(x)和初始點(diǎn)x0,初始動(dòng)量v0

△xt?= - ▽f( xt ?vt?)

vt 1?=?γvt? ?η△xt

xt 1?= xt? ?vt 1

可以發(fā)現(xiàn),求梯度的位置不在是當(dāng)前位置的梯度,而是沿著當(dāng)前沖量乘衰減系數(shù)前進(jìn)一步之后所在的位置。

例如騎自行車下坡,原來是根據(jù)當(dāng)前的坡度決定車怎么走,而現(xiàn)在是根據(jù)前方的坡度來決定車往哪兒拐。

四、牛頓法

1、牛頓-拉普森算法(NR newton-Raphson)

用來尋找實(shí)值方程的近似解。

給定方程f(x)= 0,初始點(diǎn)x0

△x = - f(xt) / f'(xt)

xt 1 = xt ?△x

停止:如果|f(x)| <?ε

2、牛頓法求極值

給定f(x)和初始點(diǎn)x0

xt 1 = xt - f'(xt)/f''(xt)

停止:|?f'(xt)?| <?ε

若f(x △x)是極小值點(diǎn),將其泰勒展開到二階:

函數(shù)對(duì)稱軸出就是極值,則:

牛頓法每次迭代,在所在的位置對(duì)要求解的函數(shù)做一次二次近似,然后直接用這個(gè)近似的最小值作為下一次迭代的位置。在高維下計(jì)算量有點(diǎn)大。

五、學(xué)習(xí)率衰減

前期使用叫大的學(xué)習(xí)率,后期使用較小的學(xué)習(xí)率。

lr = lrbase x?γ| step/stepsize |

基礎(chǔ)學(xué)習(xí)率;

γ是小于1 的衰減系數(shù);

step:當(dāng)前迭代步數(shù)

stepsize:總共迭代次數(shù)

?

來源:https://www./content-1-381651.html

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多