<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > Google投入自家AI芯片 期望發(fā)揮帶頭角色

Google投入自家AI芯片 期望發(fā)揮帶頭角色

作者: 時(shí)間:2017-06-09 來(lái)源:DIGITIMES 收藏

  日前針對資料中心市場(chǎng)推出自家晶片Tensor Processing Unit (TPU),專(zhuān)門(mén)應付處理大量數據需求。評論指出,之所以推出該技術(shù),主要出發(fā)點(diǎn)在于追求效能、降低耗能與帶領(lǐng)其他業(yè)者一同加入打造TPU的行列。

本文引用地址:http://dyxdggzs.com/article/201706/360302.htm

  據Network World報導,過(guò)去由IBM大型主機與升陽(yáng)(Sun)伺服器處理的資料中心工作量自從受到諸如等云端業(yè)者帶動(dòng)后,更讓英特爾(Intel)的PC硬體將其普及化,不過(guò),日前Google公布自家TPU效能與架構詳細研究報告后,上述情況恐將從此改變。

  首先,TPU并非類(lèi)似英特爾中央處理器(CPU)或NVIDIA繪圖處理器(GPU)的晶片,而是屬于機器學(xué)習的ASIC特殊應用晶片。機器學(xué)習包括訓練與推理兩大部分。訓練是指利用數據將電腦程式化。

  在機器學(xué)習系統提供各種語(yǔ)言的句子并教導電腦翻譯成其他語(yǔ)言屬于訓練,而口說(shuō)或在智慧型手機內輸入某語(yǔ)言的句子轉變成另一種語(yǔ)言則是推理。

  由于TPU是針對推理的特殊任務(wù)而設計,加上推理已逐漸成為Google工作量龐大部分,在工作量增加后也催生Google的TPU問(wèn)世。

  諸如語(yǔ)言翻譯與圖片搜尋等推理模型的處理容量屬于面對用戶(hù)的功能,因此,需要低成本與低延遲效能,而推理正是讓資料中心容量神經(jīng)網(wǎng)路工作量最大化最適合起點(diǎn)。

  評論認為,Google之所以設計并打造TPU原因首先就是著(zhù)眼于效能。Google將自家TPU與執行95%推理工作量的英特爾伺服器等級Haswell CPU與NVIDIA K80 GPU相比,而在執行神經(jīng)網(wǎng)路推理時(shí),TPU速度更比NVIDIA GPU與英特爾CPU快15~30倍。

  第二是考量實(shí)體空間。云端資料中心相當于IT廠(chǎng)房。Google資料處理廠(chǎng)房等龐大基礎建設的資本與營(yíng)運費用已成為一筆龐大預算。6年前,當用戶(hù)開(kāi)始使用自然語(yǔ)言辨識取代手機鍵盤(pán)時(shí),Google工程時(shí)當時(shí)曾預估,每天每位用戶(hù)3分鐘自然語(yǔ)言輸入,將會(huì )讓采用英特爾與NVIDIA設計的資料中心數量開(kāi)始倍增。

  第三是耗能。評論指出,速度較快的晶片但沒(méi)有伴隨耗能降低,只能影響實(shí)際空間成本,降低耗能則可帶來(lái)雙重影響,因為可降低使用能源量以及降低冷卻成本。Google指出,結合TPU與CPU處理器每瓦效能在不同工作量下,比CPU與GPU替代技術(shù)提升30~80倍。

  第四是TPU可解決特殊應用問(wèn)題。英特爾的CPU與NVIDIA的GPU是屬于廣泛應用的一般系統單晶片(SoC),特別是精準計算的浮點(diǎn)運算。機器學(xué)習模型可容忍低準度數學(xué)運算,因此,無(wú)需浮點(diǎn)處理單元(FPU)。

  若拿英特爾及NVIDIA的系統單晶片與FPU相比,利用TPU 8位元數學(xué)運算驅動(dòng)的推理模型預測精準度兩者相當。

  另外,矩陣幾何數學(xué)組成了多數的神經(jīng)網(wǎng)路運算,至于矩陣相乘單元(Matrix Multiply Unit;MMU)則是TPU的核心。當中包含可執行8位元乘法與加法共256x256的乘數累加器(MAC),MMU每周期可執行6.4萬(wàn)次累加計算。

  TPU在時(shí)脈0.7GHz時(shí)由于可讓低準度矩陣數學(xué)最大化以及快速移動(dòng)數據與結果,相較英特爾與NVIDIA的晶片可達到最大效能表現。Google也指出,未來(lái)TPU重新設計增加匯流排頻寬后,性能將提升2~3倍。

  第五則是促使晶片廠(chǎng)打造TPU。由于Google是數據頭號使用者,因此相當了解機器學(xué)習問(wèn)題并能足夠打造出解決方案,而且歷經(jīng)2年在其資料中心運作后,證實(shí)該問(wèn)題已經(jīng)獲得解決。

  而Google之所以釋出這次報告,目的是希望在機器學(xué)習與晶片廠(chǎng)團體內提高討論度,目前已是推出可大量執行推理的商用解決方案的時(shí)候。

  第六則是專(zhuān)利與智財權交易。由Norman Jouppi率領(lǐng)的團隊在15個(gè)月內便推出TPU,若搜尋美國專(zhuān)利局資料庫有關(guān)Jouppi的專(zhuān)利,當中更可發(fā)現許多TPU相關(guān)專(zhuān)利。評論指出,身為專(zhuān)利擁有者,Google可借由開(kāi)放其專(zhuān)利鼓勵晶片廠(chǎng)進(jìn)入該市場(chǎng),而且主要機器學(xué)習使用者業(yè)者,例如亞馬遜(Amazon)、Google、Facebook、IBM與微軟(Microsoft)也在等候采購機器學(xué)習專(zhuān)屬系統單晶片。



關(guān)鍵詞: Google AI

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>