<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > 中科院自動(dòng)化所研究登上Science子刊:自組織反向傳播提升網(wǎng)絡(luò )學(xué)習效率

中科院自動(dòng)化所研究登上Science子刊:自組織反向傳播提升網(wǎng)絡(luò )學(xué)習效率

發(fā)布人:機器之心 時(shí)間:2021-10-22 來(lái)源:工程師 發(fā)布文章

在圖像識別任務(wù)中,引入 SBP 能讓識別準確度稍稍提高,計算成本還能降低 57%。

在人工智能領(lǐng)域,目前人工神經(jīng)網(wǎng)絡(luò )中被廣泛使用的反向傳播算法(Backpropagation,BP)采用全局優(yōu)化策略,這種端到端的學(xué)習方法性能卓越,但學(xué)習過(guò)程能量消耗大,且缺乏靈活性。中科院腦智卓越中心徐波、蒲慕明聯(lián)合研究團隊近期借助生物網(wǎng)絡(luò )中發(fā)現的介觀(guān)尺度自組織反向傳播機制(Self-backpropagation,SBP),在更具效率和靈活性的類(lèi)腦局部學(xué)習方法方面取得了重要進(jìn)展。

該研究的論文《Self-backpropagation of synaptic modifications elevates the efficiency of spiking and artificial neural networks》已于 2021 年 10 月 20 日(美東時(shí)間)在線(xiàn)發(fā)表于《科學(xué)》子刊《Science Advances》上。

1.png

論文地址:https://www.science.org/doi/10.1126/sciadv.abh0146

借助 SBP 降低計算能耗

SBP 的發(fā)現最早可以追溯到 1997 年。蒲慕明團隊在 Nature 雜志上撰文發(fā)現海馬體內的神經(jīng)元可以將長(cháng)時(shí)程抑制(Long-term depression,LTD)可塑性自組織地傳播到三個(gè)方向,分別是突觸前側向傳播(Presynaptic lateral spread)、突觸后側向傳播(Postsynaptic lateral spread)、反向傳播(Backpropagation)[1],這個(gè)發(fā)現就是自組織反向傳播神經(jīng)可塑性機制(SBP)。

后續研究證實(shí),SBP 現象具有普遍性,不僅覆蓋更多的神經(jīng)區域如視網(wǎng)膜 - 頂蓋系統 [2],還覆蓋更多的可塑性類(lèi)型 [3],如長(cháng)時(shí)程增強(Long-term potentiation,LTP)。該機制的發(fā)生歸結于生物神經(jīng)元內分子調制信號的天然逆向傳遞,被認為是可能導致生物神經(jīng)網(wǎng)絡(luò )高效反饋學(xué)習的關(guān)鍵 [4]。

中科院研究團隊受到該機制的啟發(fā),對 SBP 的反向傳播方向(第三個(gè)方向)單獨構建數學(xué)模型(圖 1A),重點(diǎn)描述了神經(jīng)元輸出突觸的可塑性可以反向傳播到輸入突觸中(圖 1B),可塑性的發(fā)生可以通過(guò)時(shí)序依賴(lài)突觸可塑性(Spike timing-dependent plasticity,STDP),也可以通過(guò)人工局部梯度調節。在標準三層脈沖神經(jīng)網(wǎng)絡(luò )(Spiking neural network,SNN)的學(xué)習過(guò)程中,SBP 機制可以自組織地完成前一層網(wǎng)絡(luò )權重的學(xué)習,且可以結合短時(shí)突觸可塑性(Short-term plasticity,STP)、膜電位平衡(Homeo-static membrane potential)等,形成更強大的 SNN 組合學(xué)習方法(圖 1C)。

2.png

圖 1:SBP 在 SNN 中的應用。(A),SBP 可塑性機制。(B),SBP 在 SNN 中的局部反向傳播。(C),SBP 和其它可塑性機制在 SNN 中的組合優(yōu)化。

在一類(lèi)人工神經(jīng)網(wǎng)絡(luò )(Artificial neural network,ANN)如受限玻爾茲曼機網(wǎng)絡(luò )(Restricted Boltzmann machine,RBM)的學(xué)習中(圖 2A),SBP 機制也可以替換迭代過(guò)程中部分 BP 機制,實(shí)現交替的協(xié)作優(yōu)化(圖 2B-E)。針對 SNN 和 RBM 的不同,團隊又分別設置了兩種不同的能量函數約束,來(lái)保證訓練過(guò)程中網(wǎng)絡(luò )參數學(xué)習的平穩性。

3.png

圖 2:SBP 在 RBM 中的應用。(A),SBP 和 BP 在 RBM 中的組合優(yōu)化。(B),SBP 和 BP 的交替協(xié)作流程。(C),RBM 中的標準 Sleep Phase。(D),含有 SBP 的 Wake Phase。(E),含有 BP 的 Wake Phase。

此外,研究團隊針對性地提出了一種統計訓練過(guò)程中能量消耗的新方法(圖 3)。在圖片分類(lèi)(MNIST)、語(yǔ)音識別(NETtalk)、動(dòng)態(tài)手勢識別(DvsGesture)等多類(lèi)標準數據集上,SBP 機制通過(guò)組合其它可塑性機制,實(shí)現了更低能耗和更高精度的 SNN 局部學(xué)習(圖 4)。在 ANN-RBM 的學(xué)習中,SBP 機制也可以大量的替換 BP 機制實(shí)現全局和局部交叉學(xué)習,在降低計算能耗同時(shí)卻不損失精度(圖 5)。如圖 5C 所示,使用 SBP 進(jìn)行訓練的計算成本比僅使用 BP 進(jìn)行訓練時(shí)降低了約 57.1%。

4.png

圖 3:訓練能量消耗的計算方法。(A),平均迭代次數。(B),每次迭代中的算法復雜度。

5.jpg

圖 4:在 MNIST、NETtalk、DvsGesture 三個(gè)數據集上的性能對比。(A,C,E),SBP 分別取得了基于梯度和基于可塑性方法的 SNN 最優(yōu)性能。(B,D,F),SBP 分別取得了基于梯度和基于可塑性方法的 SNN 最低能耗。

6.jpg

圖 5:SBP 有助于 RBM 提升精度和降低能耗。(A-C),在 MNIST 數據集中,SBP 可以少量降低 RBM 的訓練誤差(A),可以同時(shí)平衡精度和能耗得到最優(yōu)的 Wake Phase 次數(B),且可以顯著(zhù)降低訓練能耗(C)。(D-I),在 NETtalk 和 DvsGesture 數據集中,SBP 得到了和在 MNIST 中類(lèi)似的結論。

研究人員認為,SBP 是一類(lèi)介觀(guān)尺度的特殊生物可塑性機制,該機制同時(shí)在 SNN 和 ANN 中獲得了廣泛的組合優(yōu)化優(yōu)勢,對進(jìn)一步深入探索類(lèi)腦局部計算具有很大的啟示性。生物智能計算的本質(zhì),很可能就是靈活融合多類(lèi)微觀(guān)、介觀(guān)等可塑性機制的自組織局部學(xué)習,結合遺傳演化賦予的遠程投射網(wǎng)絡(luò )結構,實(shí)現高效的全局優(yōu)化學(xué)習效果。該工作可以進(jìn)一步引導生物和人工網(wǎng)絡(luò )的深度融合,最終實(shí)現能效比高、可解釋性強、靈活度高的新一代人工智能模型。

中國科學(xué)院自動(dòng)化研究所類(lèi)腦智能研究中心張鐵林副研究員為該研究第一作者,徐波研究員為通訊作者,程翔(博士生)、賈順程(博士生)、蒲慕明研究員和曾毅研究員為共同作者。相關(guān)研究工作得到了國家自然科學(xué)基金委、先導 B 等項目的資助。

參考文獻:

[1] Fitzsimonds, R. M., Song, H. J. & Poo, M. M. Propagation of activity-dependent synaptic depression in simple neural networks. Nature 388, 439-448, (1997).

[2] Du, J. L. & Poo, M. M. Rapid BDNF-induced retrograde synaptic modification in a developing retinotectal system. Nature 429, 878-883, (2004).

[3] Du, J. L., Wei, H. P., Wang, Z. R., Wong, S. T. & Poo, M. M. Long-range retrograde spread of LTP and LTD from optic tectum to retina. Proceedings of the National Academy of Sciences of the United States of America 106, 18890-18896, (2009).

[4] Bi, G. & Poo, M. Synaptic modification by correlated activity: Hebb's postulate revisited. Annual Review of Neuroscience, 24, 139-166, (2001).

*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>