|
強化學(xué)習(xí)是從動物學(xué)習(xí)、參數(shù)擾動自適應(yīng)控制等理論發(fā)展而來,其基本原理是: 如果Agent的某個行為策略導(dǎo)致環(huán)境正的獎賞(強化信號),那么Agent以后產(chǎn)生這個行為策略的趨勢便會加強。Agent的目標(biāo)是在每個離散狀態(tài)發(fā)現(xiàn)最優(yōu)策略以使期望的折扣獎賞和最大。 強化學(xué)習(xí)把學(xué)習(xí)看作試探評價過程,Agent選擇一個動作用于環(huán)境,環(huán)境接受該動作后狀態(tài)發(fā)生變化,同時產(chǎn)生一個強化信號(獎或懲)反饋給Agent,Agent根據(jù)強化信號和環(huán)境當(dāng)前狀態(tài)再選擇下一個動作,選擇的原則是使受到正強化(獎)的概率增大。選擇的動作不僅影響立即強化值,而且影響環(huán)境下一時刻的狀態(tài)及最終的強化值。 強化學(xué)習(xí)不同于連接主義學(xué)習(xí)中的監(jiān)督學(xué)習(xí),主要表現(xiàn)在教師信號上,強化學(xué)習(xí)中由環(huán)境提供的強化信號是Agent對所產(chǎn)生動作的好壞作一種評價(通常為標(biāo)量信號),而不是告訴Agent如何去產(chǎn)生正確的動作。由于外部環(huán)境提供了很少的信息,Agent必須靠自身的經(jīng)歷進行學(xué)習(xí)。通過這種方式,Agent在行動一一評價的環(huán)境中獲得知識,改進行動方案以適應(yīng)環(huán)境。 強化學(xué)習(xí)系統(tǒng)學(xué)習(xí)的目標(biāo)是動態(tài)地調(diào)整參數(shù),以達到強化信號最大。若已知r/A梯度信息,則可直接可以使用監(jiān)督學(xué)習(xí)算法。因為強化信號r與Agent產(chǎn)生的動作A沒有明確的函數(shù)形式描述,所以梯度信息r/A無法得到。因此,在強化學(xué)習(xí)系統(tǒng)中,需要某種隨機單元,使用這種隨機單元,Agent在可能動作空間中進行搜索并發(fā)現(xiàn)正確的動作。
|
|
|