<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 深度學(xué)習框架只為GPU? 答案在這里

深度學(xué)習框架只為GPU? 答案在這里

作者: 時(shí)間:2018-03-16 來(lái)源:知 IN 收藏

  目前大多數的機器學(xué)習是在處理器上完成的,大多數機器學(xué)習軟件會(huì )針對進(jìn)行更多的優(yōu)化,甚至有人認為學(xué)習加速必須在上才能完成,但事實(shí)上無(wú)論是運行機器學(xué)習的處理器還是優(yōu)化的框架,都不單只針對,代號為“Skylake”的英特爾至強SP處理器就證明了這一點(diǎn)。

本文引用地址:http://dyxdggzs.com/article/201803/376990.htm

  機器學(xué)習軟件在英特爾至強SP系列白金版上的一系列基準測試性能表現與在GPU上非常相近,了解了底層架構之后,我們可以看到,在性能如此接近的情況下,使用GPU加速器更像是在購買(mǎi)一種“奢侈品”,用戶(hù)在GPU以外還有很多其他的選擇。毫無(wú)疑問(wèn),在用戶(hù)只需要機器學(xué)習的情況下,“加速器”在性能和能耗方面更有優(yōu)勢,大多數人需要的不只是一臺“智能的用于機器學(xué)習的服務(wù)器”,那就讓我們來(lái)重點(diǎn)看一下英特爾至強SP 白金級處理器為什么是最佳的選擇:

  CPU優(yōu)化框架和函數庫

  英特爾在基于GPU優(yōu)化的框架中增加了CPU優(yōu)化框架, 打破了深度學(xué)習框架偏重于GPU而忽視了CPU的行業(yè)現狀,解決了目前這些框架缺乏CPU優(yōu)化的實(shí)際問(wèn)題。

  - TensorFlow由谷歌開(kāi)發(fā),是一個(gè)領(lǐng)先的深度學(xué)習和機器學(xué)習框架,有面向Linux的處理器優(yōu)化

  - Caffe是圖片識別領(lǐng)域最受歡迎的應用之一,英特爾提供的優(yōu)化可以在CPU運行時(shí)提高Caffe的性能

  - Torch是當下流行的深度學(xué)習框架,需要在優(yōu)化的CPU上應用,可以通過(guò)英特爾軟件優(yōu)化(比如英特爾至強可擴展處理器)提高Torch在CPU上的性能

  - Theano是一個(gè)開(kāi)源的Python庫,很受機器學(xué)習程序員的歡迎,它可以幫助程序員高效地定義、優(yōu)化和評估涉及多維陣列的數學(xué)表達式

  - Neon是一個(gè)基于Python的深度學(xué)習框架,目的是在現代深度神經(jīng)網(wǎng)絡(luò )上實(shí)現易用性和可擴展性,并致力于在所有硬件上實(shí)現性能的最大化

  - MXNet是一個(gè)開(kāi)源的深度學(xué)習框架

  - Python及其函數庫是機器學(xué)習應用里最受歡迎的基礎組成,Python加速版過(guò)去幾年里得到了廣泛應用,并且可以直接下載或通過(guò)Conda、yum、apt-get或Docker images下載

  - BigDL是一個(gè)面向Apache Spark的分布式深度學(xué)習函數庫。通過(guò)BigDL用戶(hù)可以把自己的深度學(xué)習應用當作標準Apache Spark程序來(lái)編寫(xiě),直接在現有Apache Spark或Hadoop集群上運行。在Torch基礎上開(kāi)發(fā)的BigDL可以為深度學(xué)習提供綜合性支持:包括數值計算(通過(guò)Tensor)和高級神經(jīng)網(wǎng)絡(luò );此外用戶(hù)還可以利用BigDL把提前訓練的Caffe或Torch模型載入Spark程序。英特爾曾聲稱(chēng)在一個(gè)單節點(diǎn)至強處理器上(例如與GPU相比),BigDL中的處理速度比原始開(kāi)源Caffe、Torch或TensorFlow要高一個(gè)數量級

  - 英特爾MKL-DNN是一個(gè)開(kāi)源的、性能強化的函數庫,用于加速在CPU上的深度學(xué)習框架

  - 英特爾數據分析加速庫(DAAL)是一個(gè)包含了被優(yōu)化的算法構建模塊的開(kāi)源函數庫,針對大數據問(wèn)題最相關(guān)的數據分析階段。這個(gè)函數庫適用于當下流行的數據平臺,包括Hadoop、Spark、R和Matlab

  結果證明了一切,無(wú)論是TensorFlow、Caffe,還是Torch、Theano,這些深度學(xué)習框架都針對英特爾數學(xué)核心函數庫(Intel MKL)和英特爾高級矢量擴展指令集(Intel AVX)進(jìn)行了優(yōu)化。通過(guò)CPU優(yōu)化,TensorFlow和Caffe基準測試中的CPU性能分別提高了72倍和82倍。

  機器學(xué)習加速器

  科技與行業(yè)的發(fā)展都是瞬息萬(wàn)變的,機器學(xué)習的加速器也會(huì )從GPU轉向FPGA、ASIC等等,除非我們永遠只需要一臺只能用于機器學(xué)習的服務(wù)器,只要在一臺服務(wù)器上想實(shí)現可以支持各種的工作負載,英特爾至強可擴展處理器無(wú)疑是最佳的解決方案。加速器的選擇正在變得多元化,這是整個(gè)行業(yè)的發(fā)展趨勢,多核CPU(英特爾至強融核處理器,特別是“Knights Mill”版)和FPGA(英特爾至強處理器,包含Intel/Altera FPGA)都可以提供更靈活的選擇、卓越的性?xún)r(jià)比和高能效?;谟⑻貭栔翉娙诤颂幚砥饔柧毣驅W(xué)習一個(gè)AlexNet圖片分類(lèi)系統的速度,是使用NVIDIA GPU的類(lèi)似配置系統的2.3倍;英特爾至強融核處理器的性?xún)r(jià)比最高可以是GPU解決方案的9倍,每瓦性能高達8倍,英特爾Nervana將推出更多專(zhuān)為人工智能開(kāi)發(fā)的產(chǎn)品。英特爾至強SP系列處理器為機器學(xué)習提供了卓越的性能,同時(shí)相比其他解決方案也為我們帶來(lái)了更多的功能與選擇,讓我們在產(chǎn)品與行業(yè)的發(fā)展中都可以擁有更多可能。



關(guān)鍵詞: 深度學(xué)習 GPU

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>