谷歌定制機器學(xué)習芯片強悍:比GPU加CPU至少快15倍
北京時(shí)間4月6日消息,谷歌開(kāi)發(fā)定制芯片,它可以提高機器學(xué)習算法的運算速度,這不是什么秘密。谷歌管這些處理器叫作Tensor Processing Units(簡(jiǎn)稱(chēng)TPU),2016年5月,谷歌在I/O開(kāi)發(fā)者大會(huì )上首次展示了TPU,之后再也沒(méi)有提供更多細節,谷歌只是說(shuō)它正在用TPU優(yōu)化TensorFlow機器學(xué)習框架。今天,谷歌公布了更多內容。
本文引用地址:http://dyxdggzs.com/article/201704/346274.htm根據谷歌自己制定的基準,TPU執行谷歌常規機器學(xué)習任務(wù)時(shí),速度比標準GPU/CPU組合產(chǎn)品平均快了15倍至30倍。標準GPU/CPU組合產(chǎn)品將英特爾Haswell處理器與Nvidia K80 GPU安裝在一起。數據中心極為重視能耗,使用TPU后每瓦特性能(也就是TeraOps/Watt,每萬(wàn)億次/瓦特)提高了30-80倍。請注意,谷歌提供的數據是在生產(chǎn)過(guò)程中使用機器學(xué)習模型時(shí)獲得的,并不是最初創(chuàng )建模型時(shí)的數據。
谷歌還表示,大多數架構師優(yōu)化芯片是為了提高卷積神經(jīng)網(wǎng)絡(luò )的性能,不過(guò)卷積神經(jīng)網(wǎng)絡(luò )只占了數據中心負載的5%,大部分應用使用的是多層感知器神經(jīng)網(wǎng)絡(luò )。
2006年,谷歌開(kāi)始研究如何將GPU、FPGA、定制ASICS應用于數據中心。不過(guò)當時(shí)并沒(méi)有太多應用因為特殊硬件獲益,許多繁重的任務(wù)可以用數據中心多余的硬件完成。
到了2013年情況開(kāi)始改變,當時(shí)谷歌認為DNN將會(huì )變得流行起來(lái),數據中心的計算需求將會(huì )翻倍,如果用傳統CPU計算成本相當高。正因如此,谷歌啟動(dòng)一個(gè)項目,用定制ASIC完成推算,采購現在GPU用于訓練。谷歌報告稱(chēng),與GPU相比,將成本效益提高10倍就是它的目標。
評論