<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 嵌入式系統 > 業(yè)界動(dòng)態(tài) > Google TPU芯片效能超越CPU與GPU?

Google TPU芯片效能超越CPU與GPU?

作者: 時(shí)間:2017-04-20 來(lái)源:eettaiwan 收藏

  網(wǎng)路巨擘日前指出,該公司的Tensor處理器()在機器學(xué)習的測試中,以數量級的效能優(yōu)勢超越英特爾(Intel)的Xeon處理器和Nvidia的繪圖處理器(GPU)。在一份長(cháng)達17頁(yè)的報告中,深入剖析其和測試基準顯示比目前的商用芯片更快至少15倍的速度,并提供更高30倍的效能功耗比(P/W)。

本文引用地址:http://dyxdggzs.com/article/201704/358227.htm

  去年五月,宣布其ASIC設計是為了加快各種應用在其納米中心服務(wù)器的推論作業(yè)?,F在,該公司將在今年6月的一場(chǎng)電腦架構大會(huì )中,透過(guò)一篇論文首度公開(kāi)對于此芯片及其效能的深入研究。

  這份報告提供了有關(guān)加速器與Google多元神經(jīng)網(wǎng)路工作負載的深度觀(guān)察,并建議工程師在此快速成長(cháng)的領(lǐng)域中投注更多的學(xué)習。

  曾帶領(lǐng)超過(guò)70位工程師團隊設計 的知名硬件工程師Norman P. Jouppi說(shuō):“我們希望聘請一些優(yōu)秀的工程師,并讓他們了解我們正在進(jìn)行高品質(zhì)的工作,同時(shí)也讓云端客戶(hù)知道我們的實(shí)力。”

  該計劃的其中一位負責人員是美國加州柏克萊大學(xué)(U.C. Berkeley)退休教授David Patterson,他同時(shí)也是一位資深的處理器架構師,在日前一場(chǎng)矽谷的工程師聚會(huì )中介紹了這份報告。Google還在部落格中發(fā)布Jouppi所撰寫(xiě)關(guān)于此芯片的文章。

  如今Google的納米中心仍采用此芯片。不過(guò),關(guān)于該芯片使用的范圍與未來(lái)計劃加強的部份,Jouppi并不愿透露任何細節。

  這款40W功率的TPU是一款采用28納米制程、70MHz時(shí)脈運算的芯片,專(zhuān)為加速Google TensorFlow 演算法而設計。其主要的邏輯單元包含65,536個(gè)8位元的乘積累加運算單元和24MB快取存儲器,并提供每秒92兆次運算速度。

  在2015年采用Google機器學(xué)習芯片而進(jìn)行的測試中,相較于英特爾(Intel)的Haswell服務(wù)器處理器(CPU)和Nvidia的K80繪圖處理器(GPU),采用TPU時(shí)的運作速度提高了15到30倍,效能提高了30到80倍。該報告中指出:“TPU的相對增量效能功耗比為41到83——這就是我們?yōu)槭裁纯椭苹疉SIC的原因,它讓TPU比GPU高出25到29倍的的效能功耗比。”

  2015年的測試使用了英特爾 22納米制程的18核心Haswell E5-2699 v3 CPU,其時(shí)脈頻率(速度)為2.3GHz,熱設計功耗(TDP)為145W。Nvidia K80 GPU功耗為150W,時(shí)脈頻率最高到875MHz。

  TPU內部揭密

  在該報告中提到,TPU所達到的數量級效能優(yōu)勢,很少有別的廠(chǎng)商能做到,也可能讓TPU成為特定領(lǐng)域架構的原型。預計接下來(lái)將會(huì )有許多追隨者,而使得標準更為提高。

  事實(shí)上,TPU的目標不在于提高納米處理量,而是專(zhuān)注于達到7毫秒(ms)的延遲,使專(zhuān)用加速器發(fā)揮功效,因此,它舍棄了高吞吐量的多工通用處理器所需的許多元件,而用于執行其他許多任務(wù)。

  但此ASIC芯片在能耗比的表現上不及英特爾和Nvidia的芯片。在10%的負載狀況下,TPU的最大功率消耗為88%。相形之下,K80在10%負載下消耗66%的功率,而英特爾Haswell的最大功耗為56%。

  Google解釋?zhuān)@是由于僅15個(gè)月的設計時(shí)程相對較短,使得TPU無(wú)法加入許多節能方面的功能。

  納米緩沖區約占TPU的37%,媒體存取控制(MAC)組合占30%。雖然TPU比起Nvidia GPU的尺寸更小、功耗更低,但其上的MAC數量卻是K80的25倍,芯片上存儲器容量則為其3.5倍。

  TPU搭載PCIe Gen3 x16匯流排,并提供256位元的內部納米路徑。主機CPU將加速器視為浮點(diǎn)運算處理器,透過(guò)PCIe匯流排傳達指令。

  TPU使用與GPU加速器相同的Tensorflow軟體,開(kāi)發(fā)人員可維持核心驅動(dòng)器的穩定,必要時(shí)調整使用者空間的驅動(dòng)程式,以因應不斷改變的應用。

  Google發(fā)現,持續增加的存儲器頻寬對于效能表現的影響最大。平均來(lái)說(shuō),加速時(shí)脈速度的效益不大,而當MAC擴增到512x512矩陣時(shí),加快時(shí)脈速度的效能還將微幅下降。

  該報告中指出,從2015年的測試以來(lái),英特爾已經(jīng)推出14納米CPU,Nvidia也推出16納米GPU了。然而,TPU也可能將其外部DDR3存儲器升級到像K80所使用的GDDR5存儲器。

  報告中指出:“未來(lái)的CPU與GPU在執行推論時(shí)將會(huì )更快速。采用2015版GPU存儲器而重新設計的TPU將會(huì )提高兩倍到三倍的速度,而且比K80高出70倍、比Haswell更高200倍的效能功耗比。”

  Google宣稱(chēng)在英特爾CPU上執行8位元運算相當辛苦。報告中提到:“我們原本只有一款CPU執行8位元運算的結果,因為有效地使用其AVX2整數運算指令,效果提升了3.5倍。”

  由于其采用納米處理量為導向的架構,即使是改良過(guò)的GPU要達到Google的 7nm延遲目標,仍然充滿(mǎn)挑戰。同時(shí),“這款TPU仍有很大的改進(jìn)空間,所以這不是一個(gè)容易達成的目標。”

  開(kāi)發(fā)人員掌握多元化訊息

  該報告中提到,研究人員受到熱門(mén)的ImageNet比賽吸引,已經(jīng)變得過(guò)于投入卷積神經(jīng)網(wǎng)路(CNN)?,F實(shí)世界的應用采用更廣泛的神經(jīng)網(wǎng)路類(lèi)型,報告并強調,多層感知(MLP)占Google AI開(kāi)發(fā)工作的61%。“雖然大部份的架構師一直在加速CNN設計,但這部份只占5%的工作負載。”

  “雖然CNN可能很常見(jiàn)于邊緣裝置,但卷積模型的數量還趕不上納米中心的多層感知(MLP)和長(cháng)短期存儲器(LSTM)。我們希望架構師盡可能地加速MLP和LSTM設計,這種情況類(lèi)似于當許多架構師專(zhuān)注于浮點(diǎn)運算效能時(shí),大部份的主流工作負載仍由整數運算主導。”

  Jouppi說(shuō):“我們已經(jīng)開(kāi)始與一些大學(xué)合作,擴大提供免費模式。”但他并未透露內容細節。

  這篇報告回顧了二十多年來(lái)神經(jīng)網(wǎng)路的相關(guān)納米,包括其競爭對手——微軟(Microsoft)基于FPGA的Catapult計劃,加速了網(wǎng)路作業(yè)。最初的25W Catapult在200MHz時(shí)脈上運作3,926個(gè)18位元MAC,并且以200MHz 時(shí)脈速度執行5MB存儲器。Google表示,以Verilog語(yǔ)言設計的韌體比起使用TensorFlow軟體來(lái)說(shuō)效率更低。

  TPU計劃于2013年開(kāi)始,當時(shí)并以FPGA進(jìn)行了試驗。該報告中提到:“我們舍棄FPGA,因為我們當時(shí)發(fā)現它和GPU相比,在效能上不具競爭力,而TPU比起GPU在相同速度或甚至更快的速度下,可以達到更低的功耗。”

  盡管二十多年來(lái),神經(jīng)網(wǎng)路終于在最近從商用市場(chǎng)起飛了。

  Jouppi說(shuō):“我們所有人都被這蓬勃發(fā)展的景象嚇到了,當初并未預期到會(huì )有如此大的影響力。一直到五、六年以前,我都還一直抱持懷疑態(tài)度…而今訂單開(kāi)始逐月增加中。”

  相較于傳統途徑,深度神經(jīng)網(wǎng)路(DNN)已經(jīng)讓語(yǔ)音辨識的錯誤率降低了30%,這是二十年來(lái)最大的進(jìn)步。這讓ImageNet影像辨識競賽中的錯誤率從2011年的26%降至3.5%。

  該報告結論還提到,“神經(jīng)網(wǎng)路加速器存在的理由在于效能,而在其演進(jìn)過(guò)程中,如何達到良好的直覺(jué)判斷,目前還為時(shí)過(guò)早。”



關(guān)鍵詞: Google TPU

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>