版權(quán)歸原作者所有,如有侵權(quán),請聯(lián)系我們

深度強化學(xué)習(xí):智能機器中的頭號玩家

中移科協(xié)
原創(chuàng)
有用的科技知識又增加了
收藏

你是否想象過機器人也可以成為游戲領(lǐng)域的超級高手?是時候讓你的幻想成為現(xiàn)實,深度強化學(xué)習(xí)這位頭號玩家來啦!這是一個令人興奮又神秘的領(lǐng)域,簡單來說,它就是讓計算機像人類一樣學(xué)習(xí)和玩游戲。深度強化學(xué)習(xí)的學(xué)習(xí)過程就像是一場盛大的冒險,只不過主角不再是你,而是一臺智能機器。在這個冒險的旅程中,機器會探索各種各樣的環(huán)境,在探索的過程中,機器需要學(xué)習(xí)如何在這個世界中生存,這個過程就像一段傳奇的武俠故事,從小小菜鳥開始,一路闖蕩,跌跌撞撞,最后成長為一代巨俠!那么深度強化學(xué)習(xí)的原理是怎樣的呢?讓我們來一起看看吧。

1、深度學(xué)習(xí)

深度強化學(xué)習(xí)融合了深度學(xué)習(xí)和強化學(xué)習(xí),深度學(xué)習(xí)讓機器可以處理復(fù)雜的問題。這就像是機器有了一個超級大腦,深度神經(jīng)網(wǎng)絡(luò)讓它可以處理更多的信息,并做出更聰明的決策。這樣一來,機器可以在各種各樣的游戲中展現(xiàn)出驚人的技能,從圍棋、超級馬里奧到復(fù)雜的電子游戲,通通難不倒它。我們先來介紹一下深度學(xué)習(xí)。

深度學(xué)習(xí)是一種基于神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)方法,其目的是通過多層神經(jīng)元的組合計算來挖掘樣本數(shù)據(jù)的潛在規(guī)律,實現(xiàn)高效的數(shù)據(jù)處理、數(shù)據(jù)識別、數(shù)據(jù)分類等任務(wù)。當(dāng)前常見的深度學(xué)習(xí)應(yīng)用領(lǐng)域有圖像識別、自然語言處理、深度強化學(xué)習(xí)等等。

深度神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的核心組成部分,它由多個神經(jīng)元組成的神經(jīng)網(wǎng)絡(luò)層疊加而成,神經(jīng)網(wǎng)絡(luò)依據(jù)自身的狀態(tài)對外界輸入信息做出響應(yīng),實現(xiàn)對數(shù)據(jù)的智能處理。神經(jīng)元是深度神經(jīng)網(wǎng)絡(luò)中的基本單位,其設(shè)計模仿了自然界中的生物神經(jīng)元的工作機制:通過接收外界的刺激信號而興奮,內(nèi)部對信號進行處理,之后將信號傳導(dǎo)到下一個神經(jīng)元。


圖1 神經(jīng)元模型圖

多個擁有輸入和輸出的神經(jīng)元組成一層神經(jīng)網(wǎng)絡(luò),多層神經(jīng)網(wǎng)絡(luò)疊加則構(gòu)成了深度神經(jīng)網(wǎng)絡(luò),與淺層神經(jīng)網(wǎng)絡(luò)相比,深度神經(jīng)網(wǎng)絡(luò)能夠?qū)W習(xí)到更復(fù)雜的特征表示,并在許多任務(wù)上取得了更優(yōu)秀的性能。


圖2 深度神經(jīng)網(wǎng)絡(luò)模型圖

深度神經(jīng)網(wǎng)絡(luò)通常由多個層組成,在深度神經(jīng)網(wǎng)絡(luò)中,上一層網(wǎng)絡(luò)的輸出將作為下一層網(wǎng)絡(luò)的輸入,其中,接收外界輸入的網(wǎng)絡(luò)層被稱作輸入層,最終輸出結(jié)果的網(wǎng)絡(luò)層被稱作輸出層,剩余中間網(wǎng)絡(luò)層均被稱為隱含層。深度神經(jīng)網(wǎng)絡(luò)的層與層之間的連接形成了一張復(fù)雜的圖結(jié)構(gòu),稱為神經(jīng)網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)。神經(jīng)網(wǎng)絡(luò)的層數(shù)越深,包含的可訓(xùn)練參數(shù)就越多,訓(xùn)練時的計算量就越大。

2、強化學(xué)習(xí)

接下來,我們介紹一下強化學(xué)習(xí)。

機器學(xué)習(xí)方法通常分為三類:有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)。強化學(xué)習(xí)作為機器學(xué)習(xí)中的一種重要類型,常用于處理連續(xù)決策問題,不同于前兩種學(xué)習(xí)方式,強化學(xué)習(xí)更注重于從與環(huán)境的交互行為中學(xué)習(xí)并改進自身策略。強化學(xué)習(xí)涉及到智能體(agent)和環(huán)境(environment)兩個概念,其中,智能體代表強化學(xué)習(xí)算法的交互實體,環(huán)境代表與智能體交互的外部環(huán)境模型。


圖3 強化學(xué)習(xí)概念圖

智能體的學(xué)習(xí)模式如圖3所示,首先,智能體觀測環(huán)境,獲取當(dāng)前的環(huán)境狀態(tài)State,然后通過自身當(dāng)前的策略制定行為Action并將其執(zhí)行。智能體的動作會影響環(huán)境,環(huán)境會對該行為做出反饋,即給智能體一個即時獎勵信號Reward,同時環(huán)境狀態(tài)發(fā)生改變,到達下一新狀態(tài),智能體繼續(xù)觀測環(huán)境,獲取新的環(huán)境狀態(tài),繼而制定下一個行為。智能體反復(fù)迭代與環(huán)境之間的交互行為,根據(jù)層層反饋不斷改進策略,以達到最大化累積獎勵的探索目標(biāo)。

舉個例子,在智能機器的探索過程中,機器并不會被告知應(yīng)該怎么做,而是通過試錯來使它學(xué)習(xí)。當(dāng)它嘗試一種行動,比如在超級馬里奧游戲中跳躍,它可能會得到積極的獎勵,比如得分增加;或者得到消極的獎勵,比如游戲角色受傷。通過不斷嘗試和反饋,機器逐漸學(xué)會了在不同情況下采取最優(yōu)的行動,就像我們在現(xiàn)實生活中學(xué)習(xí)避免犯同樣的錯誤一樣。


圖4 超級馬里奧游戲畫面

在強化學(xué)習(xí)中,為了避免過擬合和提高泛化能力,通常采用探索和利用的策略。探索策略是指在學(xué)習(xí)過程中,以一定的概率選擇未經(jīng)歷過的動作,以便學(xué)習(xí)更加全面和深入的策略。利用策略是指在學(xué)習(xí)過程中,以一定的概率選擇已經(jīng)證明有效的動作,以獲得更高的累積獎勵。

3、深度強化學(xué)習(xí)

接下來,介紹我們的主角——深度強化學(xué)習(xí)。

深度強化學(xué)習(xí)是強化學(xué)習(xí)與深度學(xué)習(xí)的結(jié)合。借助于深度神經(jīng)網(wǎng)絡(luò)的計算優(yōu)勢和感知優(yōu)勢,深度強化學(xué)習(xí)算法對具有復(fù)雜的高維狀態(tài)空間和高維動作空間的環(huán)境的探索能力有了長足進步,對狀態(tài)價值和動作價值的求解能力也得到顯著提升。深度強化學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)可以接收高維輸入,在與環(huán)境的交互中學(xué)習(xí)最優(yōu)控制策略并輸出動作,廣泛應(yīng)用于實時決策、智能機器人、游戲博弈等多個領(lǐng)域。

Deep-Q-Network(DQN)是深度強化學(xué)習(xí)領(lǐng)域里程碑式的算法,該算法由DeepMind在2013年提出,首次將深度學(xué)習(xí)方法與強化學(xué)習(xí)方法融合,開辟了深度強化學(xué)習(xí)研究的先河。

DQN算法旨在解決傳統(tǒng)Q-learning算法在處理高維狀態(tài)空間時出現(xiàn)的問題。

傳統(tǒng)Q-learning算法維護一張S-A表來記錄在每個狀態(tài)下采取每個動作對應(yīng)的價值Q,通過查詢S-A表,智能體在每一個狀態(tài)下都選取具有最大價值的動作,也就實現(xiàn)了智能體的最優(yōu)控制。


圖5 模擬S-A表示意圖

S-A表存在一定的局限性,其使用前提是S-A的組合為有限值,當(dāng)S-A組合無法窮舉時,則無法通過查詢S-A表的方式選取最優(yōu)動作,同時,在S-A組合數(shù)量超出算力承受范圍時,查詢Q表的復(fù)雜度也是極高的。

深度神經(jīng)網(wǎng)絡(luò)具有強大的擬合能力,DQN繼承了Q-learning的思想,但采用了深度神經(jīng)網(wǎng)絡(luò)來替代S-A表。


圖6 Q-Net

通過訓(xùn)練神經(jīng)網(wǎng)絡(luò),使其能根據(jù)狀態(tài)輸出對應(yīng)狀態(tài)下動作的價值。模型的損失函數(shù):

其中為Q值的目標(biāo)值,損失函數(shù)表示了當(dāng)前估計Q值與目標(biāo)Q值之間的差距。通過使用梯度下降方法最小化損失函數(shù),來進行對網(wǎng)絡(luò)的訓(xùn)練。

需要注意到,Q-Net在更新時參數(shù)發(fā)生變化,則的值發(fā)生變化,但同時v的值也發(fā)生了變化,即模型追求的目標(biāo)Q值處于一種變化的狀態(tài),具有不穩(wěn)定性,以變動的目標(biāo)值來訓(xùn)練網(wǎng)絡(luò)則導(dǎo)致估計值也陷入不穩(wěn)定的狀態(tài),因此DQN算法引入了另一個網(wǎng)絡(luò)結(jié)構(gòu)Target-Net。Target-Net的網(wǎng)絡(luò)結(jié)構(gòu)與Q-Net完全相同,在訓(xùn)練過程中,DQN算法使用Target-Net來生成目標(biāo)Q值,而不是Q-Net。Target-Net保持穩(wěn)定的權(quán)重,使用Target-Net生成的目標(biāo)Q值來計算損失函數(shù),這可以有效解決目標(biāo)Q值的不穩(wěn)定性和發(fā)散問題。Target-Net處于慢更新狀態(tài),每隔一定的時間步,Target-Net使用Q-Net的參數(shù)來實現(xiàn)自身的更新:

其中表示Target-Net的參數(shù),表示Q-Net的參數(shù),參數(shù)用來調(diào)整更新幅度。

DQN算法在Atari游戲中取得了優(yōu)異的表現(xiàn),它的成功也促進了更多深度學(xué)習(xí)與強化學(xué)習(xí)融合研究的發(fā)展。

4、深度強化學(xué)習(xí)的經(jīng)驗回放機制

深度強化學(xué)習(xí)智能體的交互行為可以用四元組來記錄,其中s為t時刻的環(huán)境狀態(tài),a為t時刻的智能體動作,r為t時刻的獎勵,為t+1時刻的環(huán)境狀態(tài)。通過對該交互記錄進行計算,可以得到損失函數(shù)用于訓(xùn)練網(wǎng)絡(luò)。

傳統(tǒng)的Q-learning算法使用的是在線更新方式,每次訓(xùn)練都只使用當(dāng)前的交互記錄,訓(xùn)練結(jié)束后就會丟棄該條交互記錄,繼續(xù)采集新記錄,這種方式更新較慢。事實上,模型每次采集的記錄可以重復(fù)使用。通過使用一個經(jīng)驗回放池來存儲智能體交互產(chǎn)生的記錄樣本,然后從經(jīng)驗回放池批量采集經(jīng)驗進行網(wǎng)絡(luò)訓(xùn)練,可以增加樣本的利用率,減少采樣壓力。在實際應(yīng)用中,要當(dāng)經(jīng)驗回放池中存儲了足夠數(shù)量的經(jīng)驗后才會開始采樣并更新網(wǎng)絡(luò),當(dāng)經(jīng)驗回放池的容量達到上限時,每存進一條新樣本,就會以先進先出的方式刪除最早進入經(jīng)驗池的一條樣本。

同時,在一些連續(xù)場景如游戲場景中,當(dāng)前的畫面狀態(tài)與下一時刻的畫面狀態(tài)會比較接近,導(dǎo)致兩個相鄰的樣本間據(jù)有很強的相關(guān)性,如果對樣本進行順序采樣,則可能導(dǎo)致網(wǎng)絡(luò)更新過擬合。所以經(jīng)驗回放池在設(shè)計上采用了隨機抽樣的方式,降低采樣結(jié)果之間的關(guān)聯(lián),該隨機采樣方式可以提升模型訓(xùn)練的效果。

5、總結(jié)

近年來,深度強化學(xué)習(xí)像一顆新星冉冉升起,迎來了研究的熱潮,同時研究的成果也被各大主流媒體爭相報道,比如擊敗人類圍棋世界冠軍的AlphaGo、擊敗DOTA2世界冠軍戰(zhàn)隊的OpenAI Five、擊敗KPL頂尖戰(zhàn)隊的騰訊AI-絕悟等等,深度強化學(xué)習(xí)展現(xiàn)出了越來越令人驚奇的潛力。

當(dāng)然,深度強化學(xué)習(xí)不僅僅局限于應(yīng)用在游戲領(lǐng)域,它在許多領(lǐng)域都有著應(yīng)用潛力,比如自動駕駛、金融交易和醫(yī)療保健等領(lǐng)域,就連當(dāng)下大放異彩的ChatGPT也應(yīng)用了深度強化學(xué)習(xí)。

深度強化學(xué)習(xí)不僅是讓機器變得更智能,更重要的是,它讓科技變得更加有趣和有益。讓我們期待未來,看看深度強化學(xué)習(xí)會帶給我們怎樣的驚喜吧!

參考文獻

[1] 數(shù)科每日.什么是深度強化學(xué)習(xí)?|CSDN,2022.

作者:李凡聰

單位:中國移動智慧家庭運營中心

評論
古麗米拉什·胡納皮亞
少傅級
已閱
2024-03-15
科普中國俄體鎮(zhèn)023
太師級
2024-03-15
廣播發(fā)燒友@
少師級
加強學(xué)習(xí),機器學(xué)習(xí)算法。
2024-03-15