優(yōu)化AI芯片能效 Thinker團隊提供新思路
目前,AI對硬件的計算要求越來(lái)越高,這主要在神經(jīng)網(wǎng)絡(luò )研發(fā)上壓縮與簡(jiǎn)化則是一個(gè)學(xué)術(shù)界與工程界都在研究討論的重要問(wèn)題。目前的深度神經(jīng)網(wǎng)絡(luò )普遍較大,無(wú)論是在云端還是在終端,都會(huì )影響網(wǎng)絡(luò )速度,增大功耗。
本文引用地址:http://dyxdggzs.com/article/201806/381612.htm
前不久,清華大學(xué)微納電子系Thinker團隊在計算結構上設計了Thinker系列AI計算芯片,并且還受到學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注。Thinker團隊此次研究成果,從存儲優(yōu)化和軟硬件協(xié)同設計的角度大幅提升了芯片能量效率,給AI計算芯片的架構演進(jìn)提供了新思路。

據了解,在這次AI計算芯片的存儲優(yōu)化新方法中,刷新了神經(jīng)網(wǎng)絡(luò )加速框架,而且可以得到兩個(gè)優(yōu)化方向,其一是減少數據生存時(shí)間,其二就是增大數據維持時(shí)間。其次,還提出神經(jīng)網(wǎng)絡(luò )分層的混合計算模式,根據芯片參數及DNN網(wǎng)絡(luò )參數,對網(wǎng)絡(luò )的每一層分配一個(gè)最優(yōu)的計算模式。
但是,相比于傳統的采用SRAM的AI計算芯片,使用RANA框架的基于eDRAM的計算芯片在面積開(kāi)銷(xiāo)相同的情況下可以減少41.7%的片外訪(fǎng)存和66.2%的系統能耗,使AI計算系統的能量效率獲得大幅提高。
評論