<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > IBM展示10倍速GPU機器學(xué)習,處理30GB訓練數據只要1分鐘

IBM展示10倍速GPU機器學(xué)習,處理30GB訓練數據只要1分鐘

作者: 時(shí)間:2017-12-11 來(lái)源:ithome 收藏

  研究院與瑞士洛桑聯(lián)邦理工學(xué)院共同于2017 NIPS Conference發(fā)表大數據解決方案,此方法可以利用GPU在一分鐘內處理完30GB的訓練數據集,是現存有限內存訓練方法的10倍。

本文引用地址:http://dyxdggzs.com/article/201712/372773.htm

  研究團隊表示,機器訓練在大數據時(shí)代遇到的挑戰是動(dòng)輒TB等級起跳的訓練數據,這是常見(jiàn)卻又棘手的問(wèn)題,或許一臺有足夠內存容量的服務(wù)器,就能將所有訓練數據都加載內存中進(jìn)行運算,但是仍要花費數小時(shí),甚至是數周。

  他們認為,目前如GPU等特殊的運算硬件,的確能有效加速運算,但僅限于運算密集的工作,而非數據密集的任務(wù)。 如果想要善用GPU運算密集的優(yōu)勢,便需要把數據預先加載到GPU內存,而目前GPU內存的容量最多只有16GB,對于實(shí)作來(lái)說(shuō)并不算寬裕。

  批次作業(yè)看似是一個(gè)可行的方法,將訓練數據切分成一塊一塊,并且依造順序加載至GPU做模型訓練,不過(guò)經(jīng)實(shí)驗發(fā)現,從CPU將數據搬移進(jìn)GPU的傳輸成本,完全蓋過(guò)將數據放進(jìn)GPU高速運算所帶來(lái)的好處。 ,研究員Celestine Dünner表示,在GPU做最大的挑戰,就是不能把所有的數據都丟進(jìn)內存里面。

  為了解決這樣的問(wèn)題,研究團隊開(kāi)發(fā)為訓練數據集標記重要性的技術(shù),因此訓練只使用重要的數據,那多數不必要的數據就不需要送進(jìn)GPU,藉此大大節省訓練的時(shí)間。 像是要訓練分辨狗與貓圖片的模型,一旦模型發(fā)現貓跟狗的差異之一為貓耳必定比狗小,系統將保留這項特征,在往后的訓練模型中都不再重復回顧這個(gè)特征,因此模型的訓練會(huì )越來(lái)越快。 研究員Thomas Parnell表示,這樣的特性便于更頻繁的訓練模型,也能更及時(shí)的調整模型。

  這個(gè)技術(shù)是用來(lái)衡量每個(gè)數據點(diǎn)對學(xué)習算法的貢獻有多少,主要利用二元差距的概念并及時(shí)影響調整訓練算法。 將這個(gè)方法實(shí)際應用,研究團隊在異質(zhì)平臺(Heterogeneous compute platforms)上,為機器學(xué)習訓練模型開(kāi)發(fā)了一個(gè)全新可重復使用的組件DuHL,專(zhuān)為二元差距的異質(zhì)學(xué)習之用。

  IBM表示,他們的下一個(gè)目標是在云端上提供DuHL,因為目前云端GPU服務(wù)的計費單位是小時(shí),如果訓練模型的時(shí)間從十小時(shí)縮短為一小時(shí),那成本節省將非常驚人。

  (上圖)圖中顯示了三種算法所需的時(shí)間,包含DuHL在大規模的支持向量機的表現,所使用的數據集都為30GB的ImageNet數據庫,硬件為內存8GB的NVIDIA Quadro M4000 GPU, 圖中可以發(fā)現GPU序列批次的效率,甚至比單純CPU的方法還要糟,而DuHL的速度為其他兩種方法的10倍以上。



關(guān)鍵詞: IBM 機器學(xué)習

評論


相關(guān)推薦

技術(shù)專(zhuān)區

国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>