版權(quán)歸原作者所有,如有侵權(quán),請聯(lián)系我們

演講實(shí)錄丨CAAI常務(wù)理事焦李成院士:類腦感知與認(rèn)知的挑戰(zhàn)與思考?

中國人工智能學(xué)會
我國智能科學(xué)技術(shù)領(lǐng)域唯一的國家級學(xué)會
收藏

10月13日,在2021年中國人工智能大會(CCAI 2021)的計算機(jī)視覺智能專題論壇上,焦李成院士做了主題為《類腦感知與認(rèn)知的挑戰(zhàn)與思考?》的學(xué)術(shù)報告。

本次報告首先對人工智能的發(fā)展經(jīng)過進(jìn)行了反思與梳理,在此基礎(chǔ)上面向認(rèn)知建模、自動學(xué)習(xí)和漸進(jìn)演化這三個主題,匯總了其研究組近幾年在相應(yīng)領(lǐng)域的多項(xiàng)成果。

焦李成,工學(xué)博士,教授,博導(dǎo),歐洲科學(xué)院外籍院士,俄羅斯自然科學(xué)院外籍院士。主要研究方向?yàn)橹悄芨兄c量子計算、圖像理解與目標(biāo)識別、深度學(xué)習(xí)與類腦計算?,F(xiàn)任西安電子科技大學(xué)計算機(jī)科學(xué)與技術(shù)學(xué)部主任、人工智能研究院院長、智能感知與圖像理解教育部重點(diǎn)實(shí)驗(yàn)室主任、教育部科技委學(xué)部委員、教育部人工智能科技創(chuàng)新專家組專家、“一帶一路”人工智能創(chuàng)新聯(lián)盟理事長,陜西省人工智能產(chǎn)業(yè)技術(shù)創(chuàng)新戰(zhàn)略聯(lián)盟理事長,中國人工智能學(xué)會常務(wù)理事、第六-七屆副理事長,IEEE/IET/CAAI/CAA/CIE/CCF Fellow,連續(xù)七年入選愛思唯爾高被引學(xué)者榜單。研究成果獲國家自然科學(xué)獎二等獎及省部級一等獎以上科技獎勵十余項(xiàng)。

以下是演講全文,本文進(jìn)行了不改變原意的整理。

目前,神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)快速發(fā)展,在這個新興的領(lǐng)域中,最核心并且最引人注目的方向是網(wǎng)絡(luò)的優(yōu)化方法。

本文會分五個部分來和大家進(jìn)行交流:人工智能和深度學(xué)習(xí)的關(guān)系、后深度學(xué)習(xí)——認(rèn)知建模、自動學(xué)習(xí)、漸進(jìn)演化,以及總結(jié)。

1人工智能與深度學(xué)習(xí)梳理人工智能誕生距今已有60余年,在1956年的達(dá)特茅斯會議上,麥卡錫、明斯基、羅切斯特和香農(nóng)等科學(xué)家首次提出“人工智能”這個術(shù)語,從而標(biāo)志著人工智能正式成為一門科學(xué),并明確了其完整的學(xué)術(shù)路徑,也標(biāo)志了人工智能這一新的領(lǐng)域正式誕生。

他們不僅在討論中催生了人工智能這一概念,而且具有前瞻性的工作也對后世產(chǎn)生了深遠(yuǎn)影響,尤其是對IT領(lǐng)域。

人工智能按照其自然發(fā)展的歷史,可以分成四個階段:專家系統(tǒng)、特征工程、語音圖像和文字處理,以及以增強(qiáng)學(xué)習(xí)、對抗學(xué)習(xí)、自監(jiān)督學(xué)習(xí)、元學(xué)習(xí)和強(qiáng)化學(xué)習(xí)為代表性技術(shù)的當(dāng)前階段。

在專家系統(tǒng)階段(1960~1980年),人工智能較為初級,主要依賴的技術(shù)是人工設(shè)計的規(guī)則。在這個階段,人們主要希望人工智能系統(tǒng)能夠進(jìn)行搜索工作。

在特征工程階段(1980~2000年),人們開始對原始數(shù)據(jù)進(jìn)行處理從而提取特征,并使用簡單的機(jī)器學(xué)習(xí)模型進(jìn)行分類、回歸等任務(wù)。

在第三階段(2000~2010年),人們開始對語音、圖像和文字等自然信息進(jìn)行處理。在該階段中,人工智能系統(tǒng)會將原始數(shù)據(jù)和答案標(biāo)簽輸入深度學(xué)習(xí)模型。但是基于當(dāng)時傳統(tǒng)的二值串型結(jié)構(gòu)的機(jī)器學(xué)習(xí)模型無法對如此復(fù)雜的系統(tǒng)進(jìn)行學(xué)習(xí)從而完成對應(yīng)的復(fù)雜任務(wù),因此AI進(jìn)入下一階段。

在第四階段(2010~2020年)中,人們將數(shù)據(jù)交給機(jī)器,并希望機(jī)器能夠自動在數(shù)據(jù)中間挖掘其中所蘊(yùn)含的知識。但是在實(shí)際的應(yīng)用中,系統(tǒng)仍舊依賴人類對模型和數(shù)據(jù)進(jìn)行組織編排,從而指導(dǎo)模型進(jìn)行知識的挖掘。我們雖然希望AI模型能夠自動挖掘知識,但是模型的成功運(yùn)行很難離開人類的監(jiān)督和指導(dǎo)。

在這個絢爛的第四階段中,產(chǎn)生了機(jī)器證明、機(jī)器翻譯、專家系統(tǒng)、模式識別、機(jī)器學(xué)習(xí)、機(jī)器人與智能控制等多種領(lǐng)域。雖然他們的核心不同,但都是AI發(fā)展第四階段中不可或缺的重要部分。

除了從時間上對人工智能進(jìn)行梳理外,我們還可以將人工智能按照其核心思想分為五個學(xué)術(shù)流派:符號主義、聯(lián)結(jié)主義、行為主義、貝葉斯學(xué)派和類推學(xué)派。

在人工智能發(fā)展初期,這五種學(xué)派之間并沒有過多的交融與借鑒,都是各自埋頭苦干、各自為營,并對自己的應(yīng)用領(lǐng)域充滿信心。

時至今日,我們發(fā)現(xiàn)這些學(xué)派其實(shí)都是從各自的角度出發(fā)對人工智能和機(jī)器學(xué)習(xí)進(jìn)行闡釋。而人工智能的發(fā)展,則需要將這五大學(xué)派相互融合借鑒。

IEEE神經(jīng)網(wǎng)絡(luò)先驅(qū)獎得主鑒證了人工智能的發(fā)展歷程:

Shun-ichi Amari(甘利俊一)提出了神經(jīng)場的動力學(xué)理論,特別在信息幾何方面作出了奠基性的工作。

Paul J Werbos,他1974年在哈佛大學(xué)博士畢業(yè)。Werbos主要建立和提出了反向傳播算法BP,可以說Werbos是BP算法的第一人。哪怕是如今對深度學(xué)習(xí)普及影響頗深的Geoffrey Hinton,也是當(dāng)年和Werbos一起共同研究BP算法小組的成員,他也為BP算法的廣泛使用和傳播做出了諸多貢獻(xiàn)。

Leon O. Chua是一位華裔科學(xué)家,人們將其奉為加州大學(xué)伯克利EE領(lǐng)域的三巨頭之一。他創(chuàng)立了非線性的高階原件,提出了蔡氏混沌電路(Chua's Circuit),促進(jìn)了非線性電路理論的發(fā)展,掀起了研究非線性電路的熱潮,為混沌從理論走向?qū)嶋H做出了卓越貢獻(xiàn)。此外,他還提出了CA細(xì)胞神經(jīng)網(wǎng)絡(luò),在世界上的影響力巨大,是華人的驕傲。很多雜志曾經(jīng)介紹過他的CA、混沌電路等科學(xué)發(fā)現(xiàn)。至今,他仍活躍在中美科學(xué)交流的一線。

Fukushima是神經(jīng)認(rèn)知的提出者。Oja是芬蘭的科學(xué)家,也是“子空間”的提出者。姚新老師對進(jìn)化計算的貢獻(xiàn)非常巨大。王鈞老師也對神經(jīng)網(wǎng)絡(luò)的研究作出了重要貢獻(xiàn)。LeCun在2014年因?yàn)槠?990-1992提出的卷積神經(jīng)網(wǎng)絡(luò)而獲獎;之后Bengio在2019年獲獎。而今年的獲獎?wù)呤菑V東工業(yè)大學(xué)的劉德榮老師,他也是前任IEEE Trascations on Neural Networks, TNN的主編。

歷經(jīng)70年發(fā)展,神經(jīng)網(wǎng)絡(luò)也進(jìn)入到了一個新的階段。從技術(shù)上來說,他有別于純粹的“喂數(shù)據(jù)”的傳統(tǒng)方式。其實(shí)從宏觀上來講,簡單的基于BP算法的數(shù)據(jù)訓(xùn)練方式已經(jīng)成為過去時。

如今我們面對的是海量、有噪聲、小樣本、非平穩(wěn)、非線性數(shù)據(jù)的表達(dá)、學(xué)習(xí)和解譯等場景和問題。這和傳統(tǒng)的方法有很大區(qū)別。

人工智能已經(jīng)經(jīng)歷了從“特征工程”、“特征搜索”到現(xiàn)在的“表征學(xué)習(xí)”和“學(xué)習(xí)解意”的新階段。這為計算機(jī)視覺領(lǐng)域帶來了大數(shù)據(jù)驅(qū)動的表征學(xué)習(xí)、識別和優(yōu)化的新范式。

神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)包含很多因素。其中最根本的是科學(xué)問題的研究;再者是學(xué)習(xí)理論的理解,包括表示理論、優(yōu)化理論、泛化理論。其算法基礎(chǔ)不僅僅是網(wǎng)絡(luò)模型結(jié)構(gòu)本身(如CNN、自編嗎、RNN、GAN、Attention等深度學(xué)習(xí)結(jié)構(gòu)組合),更是其背后的機(jī)理,生物機(jī)理、物理原理。當(dāng)然,也包括提升算法有效性和可行性和在線處理的計算方法。

模型的優(yōu)化方法對神經(jīng)網(wǎng)絡(luò)起著十分重要的作用。優(yōu)化不僅是以傳統(tǒng)的梯度為基礎(chǔ)的體系發(fā)展。其中應(yīng)用最多的是以全局達(dá)爾文、局部拉馬克為首的自然啟發(fā)的計劃算法,但該類算法要面臨諸多問題,如隨機(jī)、正交和收斂等。當(dāng)然,從數(shù)據(jù)基礎(chǔ)本身來講,系統(tǒng)也面臨著要和數(shù)據(jù)匹配的增廣、領(lǐng)域自適應(yīng)處理、歸一化等問題。此外,我們現(xiàn)在擁有了很多強(qiáng)有力的平臺基礎(chǔ)框架技術(shù),比如Pytorch、Tensorflow、Keras和Caffe等。

但是,深度學(xué)習(xí)也面臨了諸多難題,包括其自身理論或技術(shù)中的固有缺陷(非線性、小樣本、噪聲等問題),以及現(xiàn)實(shí)人工智能問題面臨開放的變化環(huán)境。這些瓶頸問題需要在理論上進(jìn)行解決。首先,我們需要研究問題的闡述方法,來解決特征和決策間不明的關(guān)系和解釋的優(yōu)先級問題;此外,我們還要解決認(rèn)知上的缺陷,即概念的抽象、自動學(xué)習(xí)、漸進(jìn)學(xué)習(xí)、直覺和遺忘等;當(dāng)然在學(xué)習(xí)的瓶頸問題中,收斂的一致性、穩(wěn)定性、梯度駐點(diǎn)屬性等數(shù)學(xué)問題也需要攻克。

目前來說,研究員們還沒有針對可解釋性的系統(tǒng)化的理論和解決工具。

我們可以將可解釋性的研究分成三類:

首先,我們可以在建模之前對數(shù)據(jù)的分布特性進(jìn)行理解和闡述。

其次,我們可以通過建立規(guī)則的方式來實(shí)現(xiàn)對模型的可解釋性的探索。

最后,我們可以在建模之后,對模型的動作和功能(包括模型的生物機(jī)理和物理機(jī)理)進(jìn)行有效的系統(tǒng)研究和解釋,這是一種更加宏觀的方法。

理論缺陷:不穩(wěn)定性

在不穩(wěn)定梯度的問題上,梯度消失和過擬合缺失問題困擾人工智能算法已久。我們通常會通過制定損失函數(shù)和范數(shù)等方法對其進(jìn)行解決,但是該問題并沒有因此而徹底解決。神經(jīng)網(wǎng)絡(luò)存在長時記憶和短時記憶,因此它也存在著災(zāi)難性遺忘的問題。這些災(zāi)難性遺忘的理論表征、學(xué)習(xí)方法、選擇性遺忘和動力學(xué)空間的設(shè)計也是一個重要的課題。

人們所設(shè)計和部署的神經(jīng)網(wǎng)絡(luò)模型,會在很復(fù)雜的環(huán)境中運(yùn)行和工作,并且這些環(huán)境中有人類的參與。因此,它們是在一種開放和動態(tài)的環(huán)境中運(yùn)行的,在這種環(huán)境中可能存在多種攻擊(黑盒、白盒、灰箱)。

那么其安全性就是一大問題。因此,神經(jīng)網(wǎng)絡(luò)在對抗攻擊環(huán)境中的自我防御,也是一項(xiàng)重要的課題。

算法的效益比(即部署的代價)是一項(xiàng)在部署前要考慮的重要問題。我們希望設(shè)計一種綠色、資源可優(yōu)化的軟硬件環(huán)境。并希望算法能夠利用稀疏化方法,使其體積輕量化。因此,利用關(guān)鍵樣本和小樣本的學(xué)習(xí)就顯得尤為關(guān)鍵。

小樣本學(xué)習(xí)所面臨的問題可以分為模型、度量和優(yōu)化三個方面。

其中模型的問題在于如何利用稀疏性、選擇性和可變更新來建立穩(wěn)定的模型。

度量的問題在于如何用對實(shí)際的數(shù)據(jù)集因地制宜的設(shè)計度量方法,從而使網(wǎng)絡(luò)學(xué)習(xí)到最佳參數(shù)。

優(yōu)化的問題在于通過調(diào)整優(yōu)化方法來完成海量小樣本的分類、回歸任務(wù)。

這是“老同志”遇到了新問題,也是要讓“新同志”加入到人工智能的大家庭中。

此外,還有一些其它的瓶頸問題有待解決。

深度學(xué)習(xí)的成功嚴(yán)重依賴于數(shù)據(jù)集。成也數(shù)據(jù),難題也在數(shù)據(jù)。因此,高質(zhì)量數(shù)據(jù)的尋找和收集,一致性決策方法的制定是其中的根本癥結(jié)。而如何解決模型坍塌問題、特征同變性問題、不平衡問題、安全性問題、局部最小值問題,則都是困擾深度學(xué)習(xí)發(fā)展的瓶頸。

2 后深度學(xué)習(xí)——認(rèn)知建模那么在后深度學(xué)習(xí)時代,我們應(yīng)該如何解決上述問題呢?

我們的思考是——認(rèn)知建模。

神經(jīng)網(wǎng)絡(luò)源于腦神經(jīng)的計算,但是當(dāng)我們回顧生物學(xué)中腦神經(jīng)的過程會發(fā)現(xiàn),真實(shí)的生物大腦中并不是用簡單的計算來實(shí)現(xiàn)大腦認(rèn)知的。

類腦結(jié)構(gòu)中所有的建模均具有稀疏性、學(xué)習(xí)性、選擇性和方向性。然而可惜的是,這些自然的生物特性在我們目前的神經(jīng)網(wǎng)絡(luò)設(shè)計中并沒有被充分考慮進(jìn)去。

這是遺憾,也是機(jī)遇。

當(dāng)前的深度學(xué)習(xí)技術(shù)僅利用并行輸入,輸出和海量神經(jīng)元來解決所遇到的問題。

因此,仔細(xì)地回顧人腦的結(jié)構(gòu),有益于指導(dǎo)研究人員設(shè)計出更加優(yōu)秀的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

可以說,類腦感知和腦認(rèn)知的生物學(xué)基礎(chǔ),為實(shí)現(xiàn)高效準(zhǔn)確的復(fù)雜感知和解譯提供了新的思路。

神經(jīng)網(wǎng)絡(luò)的思路是:感,知,用。

宏觀上來說,神經(jīng)網(wǎng)絡(luò)模型需要首先對人類的認(rèn)知特征進(jìn)行建模,結(jié)合對深層結(jié)構(gòu)、多源綜合的宏觀模擬、神經(jīng)元稀疏認(rèn)知、方向選擇的微觀模擬,以及神經(jīng)元間顯著注意、側(cè)抑制等介觀模擬信息,設(shè)計具有稀疏性、選擇注意、方向性等特點(diǎn)的單元,構(gòu)建新型深度學(xué)習(xí)模型。通過認(rèn)知特性的建模提升對復(fù)雜數(shù)據(jù)的表征、處理與信息提取的能力。實(shí)現(xiàn)這樣的思路則這是我們的重要任務(wù)。

總結(jié)來說,認(rèn)知建模就是對人腦認(rèn)知過程中地微觀、介觀、宏觀特性進(jìn)行分析與模擬。

但是我們在該方面的工作還遠(yuǎn)遠(yuǎn)不夠。

例如,早在1996年就已經(jīng)有人在神經(jīng)元的稀疏性方面提出了相應(yīng)的生理學(xué)發(fā)現(xiàn)和論著。并且發(fā)表在Nature、Science等著名期刊上。這些工作已經(jīng)面世二三十年了,但是我們至今仍舊未完全將其利用起來。認(rèn)知的稀疏性建模,是我們迫切需要解決的問題。從技術(shù)上來說,稀疏性建模是指模擬基于生物視網(wǎng)膜機(jī)理的高效場景信息稀疏學(xué)習(xí)、初級視皮層各類神經(jīng)元動態(tài)信息加工與稀疏計算,以及中/高級視覺皮層神經(jīng)元特性的稀疏識別特點(diǎn),發(fā)展的稀疏認(rèn)知學(xué)習(xí)、計算與識別的新范式。我們已經(jīng)將這些思想和發(fā)現(xiàn)發(fā)表在2015年的計算機(jī)學(xué)報中。

在認(rèn)知建模和稀疏性的利用方面,我們將稀疏性的表征和深度學(xué)習(xí),以及考慮數(shù)據(jù)的隨機(jī)性特征結(jié)合起來,提出了多種神經(jīng)網(wǎng)絡(luò)模型。這不僅僅表現(xiàn)在訓(xùn)練過程的調(diào)參、訓(xùn)練的技巧和性能的提升,更是表現(xiàn)在研究深度學(xué)習(xí)和各類傳統(tǒng)機(jī)器學(xué)習(xí)模型之間的內(nèi)在關(guān)系,以期理解深度學(xué)習(xí)的工作原理,構(gòu)建更加強(qiáng)勁、魯棒的理論架構(gòu)等方面。

模型稀疏性不光表現(xiàn)在激活函數(shù)的逼近,更表現(xiàn)在分類器的設(shè)計,也表現(xiàn)在對隨機(jī)特性的處理上。我們提出的研究結(jié)果,包含了結(jié)構(gòu)的處理,也包含了稀疏的正則化,連接結(jié)構(gòu)的剪枝、低秩近似,和稀疏自編碼模型。這些方法在實(shí)際的運(yùn)行中都十分有效。

此外,我們還提出了快速稀疏的深度學(xué)習(xí)模型、稀疏深度組合神經(jīng)網(wǎng)絡(luò)、稀疏深度堆棧神經(jīng)網(wǎng)絡(luò)、稀疏深度判別神經(jīng)網(wǎng)絡(luò),和稀疏深度差分神經(jīng)網(wǎng)絡(luò)。在實(shí)際中也驗(yàn)證了這些方法的有效性和先進(jìn)性。

在類腦學(xué)習(xí)性和深度學(xué)習(xí)的結(jié)合方面,我們發(fā)現(xiàn)人類能夠從少量的數(shù)據(jù)中學(xué)到一般化的知識,也就是具有“抽象知識”的學(xué)習(xí)能力。我們能希望將這種特性在神經(jīng)網(wǎng)絡(luò)中表示出來。

舉一個典型的例子。

在這項(xiàng)工作中,我們將極化SAR數(shù)據(jù)的Wishart分布特性和DBA結(jié)合起來,同時利用數(shù)據(jù)局部空間信息編碼的特性,建立了快速的極化SAR分類模型,其實(shí)現(xiàn)效果良好。

其核心是物理的機(jī)理和深度學(xué)習(xí)的模型的結(jié)合。這篇文章發(fā)表在IEEE Transcation on Geosciences and Remote Sensing上,受到了廣泛關(guān)注。

同樣,為了使模型結(jié)構(gòu)更加高效,我們將堆棧和模型進(jìn)行結(jié)合,提出了一種速度快、自動化成都高、魯棒性好的深度學(xué)習(xí)快速模型。

其通過對目標(biāo)數(shù)據(jù)的自動高層語意的特征提取,實(shí)現(xiàn)了自動、高效和精準(zhǔn)的分類。這篇工作發(fā)表在IEEE Transactions on Image Processing上。這項(xiàng)工作的速度很快,因?yàn)樗軐⑽锢硖匦越Y(jié)合到深度學(xué)習(xí)的并行處理模型當(dāng)中。

我們同樣利用類腦的選擇性進(jìn)行研究。其生物機(jī)理是發(fā)表在2011年的Science科學(xué)雜志,以及2012的Neuron神經(jīng)雜志上。它的生物原理表明視覺信息的加工具有顯著的注意力機(jī)制。這個注意機(jī)制和人腦的注意機(jī)制相同。

人腦中的注意機(jī)制建模會增強(qiáng)概念學(xué)習(xí)和認(rèn)知學(xué)習(xí)的能力。注意力是人類認(rèn)知功能的重要組成部分。人類在面對海量信息時,可以在關(guān)注一些信息的同時,選擇性忽略部分信息。計算機(jī)視覺領(lǐng)域的注意力機(jī)制和大腦的信號處理機(jī)制也是類似的。例如最近大火的Transformer技術(shù),也是類似的原理。

在類腦的方向性結(jié)合研究方面,我們所基于的勝利機(jī)制發(fā)表在2015年的Nature自然雜志上。它指出生物大腦中存在能感知方向與位置的方向角和傾斜角的細(xì)胞。而在人工智能計算機(jī)視覺領(lǐng)域中,實(shí)際處理的圖像和視頻信息也都有方向和方位的變化性信息,它和人腦的背景相同。

在考慮方向性的工作中,我們建模了幾何結(jié)構(gòu),設(shè)計具備方向性的多尺度張量濾波器。

這項(xiàng)工作在軍用的產(chǎn)品中表現(xiàn)出很好的使用效果。

此外,我們還利用20多年前的多尺度幾何理論,建立了新一代可分解重構(gòu)的深度學(xué)習(xí)理論。我們不僅能構(gòu)建層級的差分特征,也能使不同層級抽象層級的差分特征形成一種新的信號表示,成為一種新的深度分解的重構(gòu)模型。上述這些工作都是基于多尺度幾何與深度學(xué)習(xí)的研究歷程和發(fā)展慣性展開的。

回顧起來,在90年代初我們便提出了多小波網(wǎng)絡(luò)理論,然后提出小波SVM支持向量機(jī),多尺度Ridgelet網(wǎng)絡(luò),再到最近的深度Contourlet網(wǎng)絡(luò)。

我們將Countorlet的方向性、逼近能力和卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,從而形成新的工作達(dá)到較好的實(shí)驗(yàn)效果。這篇工作也被IEEE Transcations on Neural Networks And Learning System 20錄用。

我們提出的Rigelet網(wǎng)絡(luò),也就是脊波網(wǎng)絡(luò),其自身可以將斑點(diǎn)及波正則化。我們將其與脊波網(wǎng)絡(luò)相結(jié)合,在SAR圖像的分類場景中達(dá)到了極佳結(jié)果。

我們還將突觸結(jié)構(gòu)進(jìn)行了模型研究。突觸是一種生理結(jié)構(gòu),其具有記憶和存儲等多種功能,而這種功能目前沒有得到完全的利用。我們主要的研究結(jié)果包括長時程增強(qiáng)和抑制,它們都是先有工作中鮮有體現(xiàn)的。

為了有效而高效的處理海量的數(shù)據(jù),后深度學(xué)習(xí)時代的另一個問題是數(shù)據(jù)的自動學(xué)習(xí)和處理。

學(xué)習(xí)模式的演化經(jīng)歷了數(shù)十年的發(fā)展:從1960年代的淺層神經(jīng)網(wǎng)絡(luò),到70年代的反向傳播的發(fā)現(xiàn)、80年代的卷積網(wǎng)絡(luò),到1990、2000年左右的無監(jiān)督、監(jiān)督深度學(xué)習(xí)的卷土重來,直到現(xiàn)在的網(wǎng)絡(luò)模型?;仡櫾撗莼瘹v程我們發(fā)現(xiàn),應(yīng)該更加努力地研究自適應(yīng)深度學(xué)習(xí)。

在自適應(yīng)深度學(xué)習(xí)方面,我們還有很多難題和課題需要解決。這些問題在于,我們要在特征工程、特征學(xué)習(xí)、感知+決策和環(huán)境適應(yīng)的基礎(chǔ)上,讓機(jī)器能夠?qū)W會學(xué)習(xí),學(xué)會適應(yīng)環(huán)境,學(xué)會感知決策。我們不僅要讓機(jī)器能夠生成對抗、架構(gòu)搜索和遷移學(xué)習(xí),更要讓模型能夠自動學(xué)習(xí),能夠從結(jié)構(gòu)上進(jìn)行新的探索。

此圖梳理了國際上的一些深度學(xué)習(xí)結(jié)構(gòu)和能力上的工作。梳理這些工作的脈絡(luò)后,我們可以發(fā)現(xiàn),這些工作都是在解決深度學(xué)習(xí)中的一些基礎(chǔ)性問題。當(dāng)然,這也是在構(gòu)建一些新的處理結(jié)構(gòu),包括知識與知識的有效利用,與邊云端的有效結(jié)合。

盡管我們有了模型在結(jié)構(gòu)上的發(fā)展概況,但自動學(xué)習(xí)仍舊面臨了很大的挑戰(zhàn)。尤其是在自動確定網(wǎng)絡(luò)結(jié)構(gòu)超參數(shù)上遇到了相當(dāng)大的問題。在此問題上,很多人都陷入了超參工程這一領(lǐng)域中。但在我看來,這項(xiàng)工作并沒有太多的科學(xué)思考,都是一些“碼農(nóng)調(diào)參”的常規(guī)工作。這是最低級、辛苦、低效且無意義的工作。神經(jīng)網(wǎng)絡(luò)的架構(gòu)搜索NAS,是解放人力的一種新途徑。我們現(xiàn)在的問題是如何針對需要解決的問題搜索到最佳的結(jié)構(gòu)。

對于自適應(yīng)神經(jīng)樹模型,我們采用了神經(jīng)網(wǎng)絡(luò)與決策樹相結(jié)合方法進(jìn)行組建。此工作最早是由UCL、帝國理工和微軟的研究人員提出的。他們提出了一種雛形的自適應(yīng)神經(jīng)樹模型ANT,它依賴于各種數(shù)據(jù)的模式。那么對于復(fù)雜、活的和變化的數(shù)據(jù),應(yīng)該如何設(shè)計一種自適應(yīng)、快速、可微分、系統(tǒng)可通過BP進(jìn)行訓(xùn)練的訓(xùn)練算法是一項(xiàng)挑戰(zhàn)。

另一個問題是概率生成的確定性推理。在模型學(xué)習(xí)的過程中,很多時候需要“靈感“。記憶和學(xué)習(xí)永遠(yuǎn)是有效的、可逆的。這不僅是矛盾,更是矛盾的兩面體。因此我們?nèi)绾卧谀P蛯W(xué)習(xí)的過程中利用這種關(guān)系呢?同樣,在函數(shù)的逼近論下的架構(gòu)搜索,我們提出深度泰勒分解網(wǎng)絡(luò)來解決求導(dǎo)難的問題。它采用逐層拆解的方法來解決深度網(wǎng)絡(luò)過于復(fù)雜從而無法求導(dǎo)的問題。

3 后深度學(xué)習(xí)——漸進(jìn)演化后深度學(xué)習(xí)時代面臨的另一個問題是“漸進(jìn)演化”。 我們?yōu)槭裁磿岢鲞@個概念?這是因?yàn)槲覀儚恼J(rèn)知建模、自動學(xué)習(xí),再到漸進(jìn)演化,不僅是要對場景和設(shè)備的噪聲、非線性變換等脆弱問題進(jìn)行定位,更重要的是要解決面對海量、小樣本的數(shù)據(jù)的復(fù)雜性所產(chǎn)生的問題。

漸進(jìn)演化本質(zhì)是受到了前文所述的人工智能、生物智能和計算智能的啟發(fā)。我們希望網(wǎng)絡(luò)能夠進(jìn)行充分的感知、全面的認(rèn)知,進(jìn)而進(jìn)行感知和認(rèn)知協(xié)同發(fā)展。漸進(jìn)演化的基本觀點(diǎn)是進(jìn)行動態(tài)進(jìn)化優(yōu)化、學(xué)習(xí)時刻之間的相似性,最終進(jìn)行領(lǐng)域適應(yīng)的學(xué)習(xí)。

也就是將現(xiàn)在以梯度學(xué)習(xí)為基礎(chǔ)的機(jī)器學(xué)習(xí)算法,和以自然演化的達(dá)爾文進(jìn)化計算結(jié)合起來構(gòu)造高效的算法。這便是漸進(jìn)演化的基本含義。

人腦的感知和認(rèn)知是進(jìn)化和優(yōu)化的核心。其中包括權(quán)重優(yōu)化、結(jié)構(gòu)優(yōu)化、稀疏網(wǎng)絡(luò)優(yōu)化、網(wǎng)絡(luò)剪枝方法。他們都依賴于傳統(tǒng)梯度算法和演進(jìn)計算的結(jié)合。因此,我們要在網(wǎng)絡(luò)模型和學(xué)習(xí)算法的結(jié)合上考慮協(xié)同進(jìn)化的優(yōu)化。這是我們需要考慮的重要問題之一。我們也將深度學(xué)習(xí)算法部署到時FPGA系統(tǒng)當(dāng)中,并且取得了非常好的效果。

我們再次回過頭來看人工智能的源頭、基礎(chǔ)和創(chuàng)新。這是一項(xiàng)需要從源頭上突破卡脖子技術(shù)的研究方向,我們要將生物機(jī)理、物化機(jī)理、數(shù)學(xué)機(jī)理、算法設(shè)計和硬件環(huán)境結(jié)合起來,來實(shí)現(xiàn)從腦科學(xué)到認(rèn)知計算,再最終到人工智能的良性閉環(huán)。

其實(shí),深度學(xué)習(xí)和人工智能的發(fā)展也經(jīng)歷了類似的過程。腦科學(xué)的諾貝爾獎、人工智能的圖靈獎和認(rèn)知科學(xué)的諾貝爾獎的重要發(fā)展,都是人工智能發(fā)展的基礎(chǔ)。

因此,腦科學(xué)、人工智能和認(rèn)知科學(xué)的有機(jī)結(jié)合是人工智能下一階段發(fā)展的重要方向。

從類腦感知到認(rèn)知的人工智能,要求我們不光要對事情進(jìn)行感知,更是要進(jìn)行認(rèn)知,而且需要學(xué)會思考、決策以及行動。這涉及到心理學(xué)、哲學(xué)、語言學(xué)、人類學(xué)、人工智能和神經(jīng)科學(xué)等多種學(xué)科。

謝謝大家!