IBM和NVIDIA新款人工智能服務(wù)器又把英特爾秒了
另外,Tesla P100的半精度浮點(diǎn)運算性能達到了每秒21萬(wàn)億次 —— 比插入現代PCI-E插槽的GPU高出大約14%,這樣的處理能力對訓練深度神經(jīng)網(wǎng)絡(luò )的重要性不言而喻。
本文引用地址:http://dyxdggzs.com/article/201609/296831.htmIBM還做了個(gè)縱向對比,和老款Power S822LC服務(wù)器的Tesla K80 GPU加速器相比,新款服務(wù)器的加速能力提升了兩倍多。
預計明年問(wèn)世的IBM Power9會(huì )延續對CPU+GPU組優(yōu)化。
為何是“CPU+GPU”?
眾所周知,在人工智能人工智能和深度學(xué)習等計算任務(wù)上,CPU早已不堪重任。因此,不少企業(yè)紛紛推出人工智能專(zhuān)用芯片概念,例如谷歌的TPU(Tensor Processing Unit);還有業(yè)內人士力挺FPGA更適合深度學(xué)習的算法,這也是英特爾以高價(jià)收購Altera的主要原因。
不過(guò),上述兩個(gè)替代CPU的方案都還未成熟,目前大多數企業(yè)采用的依然是“CPU+GPU”的組合,或者稱(chēng)為異構服務(wù)器。通常來(lái)說(shuō),在這種異構模式下,應用程序的串行部分在CPU上運行,而GPU作為協(xié)處理器,主要負責計算任務(wù)繁重的部分。
因為和CPU相比,GPU的優(yōu)勢非常明顯:
1.CPU主要為串行指令而優(yōu)化,而GPU則是為大規模的并行運算而優(yōu)化。所以,后者在大規模并行運算的速度更快;
2.同等面積下,GPU上擁有更多的運算單元(整數、浮點(diǎn)的乘加單元,特殊運算單元等等);
3.一般情況下,GPU擁有更大帶寬的 Memory,因此在大吞吐量的應用中也會(huì )有很好的性能。
4.GPU對能源的需求遠遠低于CPU。
當然,這并不代表人工智能服務(wù)器對CPU沒(méi)有需求,CPU依然是計算任務(wù)不可或缺的一部分,在深度學(xué)習算法處理任務(wù)中還需要高性能的CPU來(lái)執行指令并且和GPU進(jìn)行數據傳輸,同時(shí)發(fā)揮CPU的通用性和GPU的復雜任務(wù)處理能力,才能達到最好的效果,通俗點(diǎn)說(shuō)就是實(shí)現CPU和GPU的協(xié)同計算。
雖然NVIDIA和Intel等芯片商正在為GPU和CPU孰強孰弱陷入了口水戰,但實(shí)際上這些企業(yè)已經(jīng)開(kāi)始在異構計算上加大了研發(fā)力度,至少在近期內,CPU和GPU的結合將繼續成為人工智能領(lǐng)域最有效的方案。
評論