<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 理解神經(jīng)網(wǎng)絡(luò )是否有更好的姿勢?

理解神經(jīng)網(wǎng)絡(luò )是否有更好的姿勢?

作者:楊曉凡 時(shí)間:2019-07-23 來(lái)源:雷鋒網(wǎng) 收藏
編者按:在某一些層面上我們已經(jīng)有很好的了解,而且可能比其它的層面更為重要

雷鋒網(wǎng)按:DeepMind 研究科學(xué)家 Timothy P. Lillicrap,賓夕法尼亞大學(xué)教授 Konrad P. Kording 近期發(fā)表了一篇文章《What does it mean to understand a neural network?》(arxiv.org/abs/1907.06374)。正如文章標題提出的,「理解」到底意味著(zhù)什么?我們當前的研究是否走入了誤區以至于忽略了某些很有價(jià)值的東西?這是一篇視角獨特的討論,文章主要內容介紹如下。

本文引用地址:http://dyxdggzs.com/article/201907/402977.htm

可解釋性之路面臨困境

自從現代被證明能解決復雜問(wèn)題并開(kāi)始蓬勃發(fā)展以來(lái),如何理解這些網(wǎng)絡(luò )就一直是一個(gè)未解之謎。網(wǎng)絡(luò )中少則數千、多則數萬(wàn)的連接和權重都分別如何影響網(wǎng)絡(luò )的表現、如何理解對抗性樣本之類(lèi)的意外行為,有許多問(wèn)題目前都還沒(méi)有完整的理論可以說(shuō)清。

但毫無(wú)疑問(wèn),我們對神經(jīng)網(wǎng)絡(luò )是有高度的掌控能力的。即便 AlphaGo、Open Five 等已經(jīng)在游戲中展現出了超人類(lèi)水平的神經(jīng)網(wǎng)絡(luò ),它們也只是來(lái)源于人類(lèi)編寫(xiě)的上百行代碼而已。我們理解這些代碼,我們知道它們將會(huì )如何轉化為計算流程,在網(wǎng)絡(luò )訓練完畢以后也能夠知道網(wǎng)絡(luò )的所有權重。

從這個(gè)意義上說(shuō),我們對網(wǎng)絡(luò )的結構和其中的運算都有完全的了解。但我們真正希望獲得的是一種介于人類(lèi)思維語(yǔ)言以及計算機運算細節之間的中轉語(yǔ)言,我們可以借助這種語(yǔ)言直接構建可以分類(lèi) ImageNet 圖像或者能夠下圍棋的神經(jīng)網(wǎng)絡(luò ),而不需要經(jīng)過(guò)繁瑣、消耗資源的迭代學(xué)習過(guò)程;可以借助這種語(yǔ)言直接獲得網(wǎng)絡(luò )表現的清晰完整的描述,而不需要通過(guò)反復的測試進(jìn)行經(jīng)驗總結。目前我們還沒(méi)有找到這樣的中轉語(yǔ)言,甚至都不確定是否存在這樣的語(yǔ)言。

神經(jīng)網(wǎng)絡(luò )能被緊湊地表達嗎?

一個(gè)值得深入思考的角度是,在機器學(xué)習的理論框架下設計的人工智能系統,都是一些「學(xué)習系統」,它們在人類(lèi)編寫(xiě)的學(xué)習規則下學(xué)習(從數據中提取信息)。這些學(xué)習規則的表達非常緊湊,幾十、幾百行高級編程語(yǔ)言代碼(比如 Pytorch 代碼)就足以描述。

對于我們廣大的機器學(xué)習科研和應用人員來(lái)說(shuō),這種緊湊的表達顯然能幫助我們獲得一些有價(jià)值的理解。這樣的緊湊表達也給我們提供了許多便利:我們可以為同一個(gè)想法創(chuàng )造許許多多的不同變體,然后用它們解決一大批問(wèn)題。

既然學(xué)習規則可以被緊湊地表達,那么神經(jīng)網(wǎng)絡(luò )本身可以被緊湊地表達嗎?不見(jiàn)得。近幾年隨著(zhù)知識蒸餾和計算復雜度的研究增多,我們對數據和網(wǎng)絡(luò )的可壓縮性的理解也在增加。我們已經(jīng)知道,在 ImageNet 上訓練完畢的網(wǎng)絡(luò )是無(wú)法被壓縮到 10 萬(wàn)個(gè)獨立參數之內的;即便是用來(lái)識別 MNIST 數字的網(wǎng)絡(luò )也無(wú)法被壓縮為人類(lèi)可以理解的格式。但同時(shí),能存儲超過(guò)三萬(wàn)個(gè)類(lèi)別的知識并進(jìn)行分辨的人類(lèi)大腦,作為一類(lèi)十分高級的神經(jīng)網(wǎng)絡(luò ),想要在其中找到,或者想要壓縮為某種緊湊的表征,也是幾乎不可能的事情。

跳出壓縮技巧之外,我們其實(shí)可以問(wèn)這樣一個(gè)問(wèn)題:在任務(wù)中表現出了人類(lèi)水準的網(wǎng)絡(luò ),應當是容易壓縮的嗎?不難得到答案:越是處理復雜任務(wù)、能存儲并處理越多信息的網(wǎng)絡(luò ),就越難以壓縮。

更重要、也更長(cháng)遠的一件事是,完全掌握某一個(gè)可以正常工作的 系統的網(wǎng)絡(luò )架構和權重、但不了解學(xué)習規則和執行技巧,對于解決其它的任務(wù)就起不到任何幫助。也就是說(shuō),了解訓練系統用到的學(xué)習規則、網(wǎng)絡(luò )架構、損失函數,對于后續的更改和拓展要遠比了解直接存在于網(wǎng)絡(luò )之中的連接權重重要。

與神經(jīng)科學(xué)的類(lèi)比

雖然人腦的神經(jīng)網(wǎng)絡(luò )和如今的人工神經(jīng)網(wǎng)絡(luò )有諸多不同,但是相同點(diǎn)也不少,尤其是極高的可塑性以及難以準確了解網(wǎng)絡(luò )內的表征。說(shuō)到底,人腦在具有極強的持續學(xué)習能力、有高超的任務(wù)解決能力的同時(shí),可解釋性并不比人工神經(jīng)網(wǎng)絡(luò )好到哪里去,但同時(shí)人類(lèi)在學(xué)習和發(fā)展方面有諸多理論研究成果和實(shí)用技巧,不僅容易理解,也能切實(shí)起到幫助改善個(gè)人狀況、提升個(gè)人能力的作用。我們似乎可以說(shuō),為神經(jīng)網(wǎng)絡(luò )(不論人腦還是人工神經(jīng)網(wǎng)絡(luò ))找到人類(lèi)可以理解的緊湊表達不僅不是唯一的目標,甚至它的作用也不如網(wǎng)絡(luò )架構、學(xué)習規則、發(fā)展規律的研究的作用更大。

正如 Hinton 等人在 AlexNet 論文中,以及 DeepMind 在 AlphaGo 論文中展示的,一個(gè)人工神經(jīng)網(wǎng)絡(luò )可以被清晰地分成先天(原理)與后天(參數)兩部分:為網(wǎng)絡(luò )提供任務(wù)和有關(guān)的數據源(供網(wǎng)絡(luò )從其中提取出絕大部分無(wú)法壓縮也難以描述的參數值),同時(shí)記錄下使用的網(wǎng)絡(luò )架構(卷積網(wǎng)絡(luò ) / 殘差網(wǎng)絡(luò ))、損失函數(L2 / 交叉熵)、學(xué)習規則(SGD / Adam)、優(yōu)化手段(蒙特卡洛樹(shù)搜索)。后面的這四點(diǎn)可以簡(jiǎn)單且嚴謹地表達為人類(lèi)能夠理解的方程,而且可以指導我們開(kāi)發(fā)未來(lái)更多的人工神經(jīng)網(wǎng)絡(luò )系統。

在統計物理中,一團氣體可以由溫度、壓強等不多的幾個(gè)變量描述,然后在這幾個(gè)變量基礎之上繼續進(jìn)行的預測和控制也都可以準確地進(jìn)行。神經(jīng)科學(xué)研究中也傾向于相信人類(lèi)大腦中也存在這樣的描述方式。但氣體分子互相都是一樣的、可交換的、只有短期記憶,而人類(lèi)大腦中的細胞是各自具有獨特性、具有長(cháng)期記憶能力的(這也從另一個(gè)角度印證了上文提到的「難以被壓縮」)。所以,神經(jīng)科學(xué)研究中期待的這種描述方法很可能起到了誤導的作用。

總結

看起來(lái)可行的事情到了最后才證明此路不通,這樣的故事在歷史上反復重演。也許以后我們會(huì )發(fā)現人工神經(jīng)網(wǎng)絡(luò )便于實(shí)驗所以更容易理解,也有可能我們首先證明了人類(lèi)大腦的強模態(tài)性、近似線(xiàn)性和高噪聲特性;也有可能我們最終都無(wú)法完全理解任一種網(wǎng)絡(luò )。

目前熱門(mén)的研究大腦的方法已經(jīng)可以單獨研究其中的先天成分;從行為學(xué)的角度講,我們也可以提問(wèn)學(xué)習是如何改變了行動(dòng)的。當我們研究表征的時(shí)候,我們可以研究是哪個(gè)損失函數、哪個(gè)網(wǎng)絡(luò )架構、哪個(gè)學(xué)習特性可能導致了檢測到的表征的變化。當我們嘗試研究大腦如何運行而遇到困難的時(shí)候,我們完全可以研究大腦是如何學(xué)習運行的。

閱讀原論文見(jiàn):https://arxiv.org/abs/1907.06374

PS:谷歌大腦研究員 Adam Gaier 和 David Ha 近期也對神經(jīng)網(wǎng)絡(luò )的結構和可解釋性做出了新的探索,他們嘗試避開(kāi)難以解釋的連接權重,直接創(chuàng )建具有可理解的結構的網(wǎng)絡(luò )。這也是非常有趣的研究思路,詳細介紹請見(jiàn)《神經(jīng)網(wǎng)絡(luò )的氣宗與劍宗之爭:先驗強大的網(wǎng)絡(luò )甚至不需要訓練》。

本文轉自雷鋒網(wǎng),如需轉載請至雷鋒網(wǎng)官網(wǎng)申請授權。

原文章地址為理解神經(jīng)網(wǎng)絡(luò )是否有更好的姿勢?



評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>