<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 設計應用 > 怎樣加速“深度學(xué)習”?GPU、FPGA還是專(zhuān)用芯片?

怎樣加速“深度學(xué)習”?GPU、FPGA還是專(zhuān)用芯片?

作者: 時(shí)間:2018-03-27 來(lái)源:網(wǎng)絡(luò ) 收藏

  計算機發(fā)展到今天,已經(jīng)大大改變了我們的生活,我們已經(jīng)進(jìn)入了智能化的時(shí)代。但要是想實(shí)現影視作品中那樣充分互動(dòng)的人工智能與人機互動(dòng)系統,就不得不提到深度學(xué)習。

本文引用地址:http://dyxdggzs.com/article/201803/377456.htm

  深度學(xué)習

  深度學(xué)習的概念源于人工神經(jīng)網(wǎng)絡(luò )的研究。含多隱層的多層感知器就是一種深度學(xué)習結構。深度學(xué)習通過(guò)組合低層特征形成更加抽象的高層表示屬性類(lèi)別或特征,以發(fā)現數據的分布式特征表示。

  深度學(xué)習的概念由Hinton等人于2006年提出?;谏钚哦染W(wǎng)(DBN)提出非監督貪心逐層訓練算法,為解決深層結構相關(guān)的優(yōu)化難題帶來(lái)希望,隨后提出多層自動(dòng)編碼器深層結構。此外Lecun等人提出的卷積神經(jīng)網(wǎng)絡(luò )是第一個(gè)真正多層結構學(xué)習算法,它利用空間相對關(guān)系減少參數數目以提高訓練性能。

  深度學(xué)習是機器學(xué)習研究中的一個(gè)新的領(lǐng)域,其動(dòng)機在于建立、模擬人腦進(jìn)行分析學(xué)習的神經(jīng)網(wǎng)絡(luò ),它模仿人腦的機制來(lái)解釋數據,例如圖像,聲音和文本。

  同機器學(xué)習方法一樣,深度機器學(xué)習方法也有監督學(xué)習與無(wú)監督學(xué)習之分.不同的學(xué)習框架下建立的學(xué)習模型很是不同.

  例如,卷積神經(jīng)網(wǎng)絡(luò )(Convolutional neural networks,簡(jiǎn)稱(chēng)CNNs)就是一種深度的監督學(xué)習下的機器學(xué)習模型,而深度置信網(wǎng)(Deep Belief Nets,簡(jiǎn)稱(chēng)DBNs)就是一種無(wú)監督學(xué)習下的機器學(xué)習模型。

  Artificial Intelligence,也就是人工智能,就像長(cháng)生不老和星際漫游一樣,是人類(lèi)最美好的夢(mèng)想之一。雖然計算機技術(shù)已經(jīng)取得了長(cháng)足的進(jìn)步,但是到目前為止,還沒(méi)有一臺電腦能產(chǎn)生“自我”的意識。是的,在人類(lèi)和大量現成數據的幫助下,電腦可以表現的十分強大,但是離開(kāi)了這兩者,它甚至都不能分辨一個(gè)喵星人和一個(gè)汪星人。

  圖靈(圖靈,大家都知道吧。計算機和人工智能的鼻祖,分別對應于其著(zhù)名的“圖靈機”和“圖靈測試”)在 1950 年的論文里,提出圖靈試驗的設想,即,隔墻對話(huà),你將不知道與你談話(huà)的,是人還是電腦。這無(wú)疑給計算機,尤其是人工智能,預設了一個(gè)很高的期望值。但是半個(gè)世紀過(guò)去了,人工智能的進(jìn)展,遠遠沒(méi)有達到圖靈試驗的標準。這不僅讓多年翹首以待的人們,心灰意冷,認為人工智能是忽悠,相關(guān)領(lǐng)域是“偽科學(xué)”。

  但是自 2006 年以來(lái),機器學(xué)習領(lǐng)域,取得了突破性的進(jìn)展。圖靈試驗,至少不是那么可望而不可及了。至于技術(shù)手段,不僅僅依賴(lài)于云計算對大數據的并行處理能力,而且依賴(lài)于算法。這個(gè)算法就是,Deep Learning。借助于 Deep Learning 算法,人類(lèi)終于找到了如何處理“抽象概念”這個(gè)亙古難題的方法。


  2012年6月,《紐約時(shí)報》披露了Google Brain項目,吸引了公眾的廣泛關(guān)注。這個(gè)項目是由著(zhù)名的斯坦福大學(xué)的機器學(xué)習教授A(yíng)ndrew Ng和在大規模計算機系統方面的世界頂尖專(zhuān)家JeffDean共同主導,用16000個(gè)CPU Core的并行計算平臺訓練一種稱(chēng)為“深度神經(jīng)網(wǎng)絡(luò )”(DNN,Deep Neural Networks)的機器學(xué)習模型(內部共有10億個(gè)節點(diǎn)。這一網(wǎng)絡(luò )自然是不能跟人類(lèi)的神經(jīng)網(wǎng)絡(luò )相提并論的。要知道,人腦中可是有150多億個(gè)神經(jīng)元,互相連接的節點(diǎn)也就是突觸數更是如銀河沙數。曾經(jīng)有人估算過(guò),如果將一個(gè)人的大腦中所有神經(jīng)細胞的軸突和樹(shù)突依次連接起來(lái),并拉成一根直線(xiàn),可從地球連到月亮,再從月亮返回地球),在語(yǔ)音識別和圖像識別等領(lǐng)域獲得了巨大的成功。

  項目負責人之一Andrew稱(chēng):“我們沒(méi)有像通常做的那樣自己框定邊界,而是直接把海量數據投放到算法中,讓數據自己說(shuō)話(huà),系統會(huì )自動(dòng)從數據中學(xué)習?!绷硗庖幻撠熑薐eff則說(shuō):“我們在訓練的時(shí)候從來(lái)不會(huì )告訴機器說(shuō):‘這是一只貓?!到y其實(shí)是自己發(fā)明或者領(lǐng)悟了“貓”的概念?!?/p>


  2012年11月,微軟在中國天津的一次活動(dòng)上公開(kāi)演示了一個(gè)全自動(dòng)的同聲傳譯系統,講演者用英文演講,后臺的計算機一氣呵成自動(dòng)完成語(yǔ)音識別、英中機器翻譯和中文語(yǔ)音合成,效果非常流暢。據報道,后面支撐的關(guān)鍵技術(shù)也是DNN,或者深度學(xué)習(DL,DeepLearning)。

  用什么加快計算速度?異構處理器

  在摩爾定律的作用下,單核標量處理器的性能持續提升,軟件開(kāi)發(fā)人員只需要寫(xiě)好軟件,而性能就等待下次硬件的更新,在2003年之前的幾十年里,這種“免費午餐”的模式一直在持續。2003年后,主要由于功耗的原因,這種“免費的午餐”已經(jīng)不復存在。為了生存,各硬件生產(chǎn)商不得不采用各種方式以提高硬件的計算能力,以下是目前最流行的幾種方式是。

  1) 讓處理器一個(gè)周期處理多條指令 ,這多條指令可相同可不同。如Intel Haswell處理器一個(gè)周期可執行4條整數加法指令、2條浮點(diǎn)乘加指令,同時(shí)訪(fǎng)存和運算指令也可同時(shí)執行。

  2) 使用向量指令 ,主要是SIMD和VLIW技術(shù)。SIMD技術(shù)將處理器一次能夠處理的數據位數從字長(cháng)擴大到128或256位,也就提升了計算能力。

  3) 在同一個(gè)芯片中集成多個(gè)處理單元 ,根據集成方式的不同,分為多核處理器或多路處理器。多核處理器是如此的重要,以至于現在即使是手機上的嵌入式ARM處理器都已經(jīng)是四核或八核。

  4) 使用異構處理器,不同的架構設計的處理器具有不同的特點(diǎn),如X86 處理器為延遲優(yōu)化,以減少指令的執行延遲為主要設計考量(當然今天的X86 處理器設計中也有許多為吞吐量設計的影子);如NVIDIA 和AMD 則為吞吐量設計,以提高整個(gè)硬件的吞吐量為主要設計目標。

  加速

  相比之前在游戲、視覺(jué)效果中的應用,GPU正在成為數據中心、超算中心的標配,并廣泛應用于深度學(xué)習、大數據、石油化工、傳媒娛樂(lè )、科學(xué)研究等行業(yè)。GPU計算正在加速著(zhù)深度學(xué)習革命,作為深度學(xué)習研究技術(shù)平臺領(lǐng)導廠(chǎng)商,NVIDIA將為中國的深度學(xué)習提供更多的技術(shù)平臺和解決方案,并繼續與中國的合作伙伴一起積極參加和推動(dòng)深度學(xué)習生態(tài)鏈的構建。


  基于GPU加速的深度學(xué)習算法,百度、微軟和Google的計算機視覺(jué)系統在ImageNet圖像分類(lèi)和識別測試中分別達到了5.98% (2015年1月數據)4.94%(2015年2月數據)、4.8%(2015年2月數據)、的錯誤率,接近或超過(guò)了人類(lèi)識別水平——跑分競賽雖然有針對已知數據集進(jìn)行特定優(yōu)化之嫌,但優(yōu)化結果對工業(yè)界的實(shí)踐仍然具有參考價(jià)值。

  人工智能從過(guò)去基于模型的方法,變成現在基于數據、基于統計的方法,主要得益于GPU高度并行的結構、高效快速的連接能力。事實(shí)證明GPU很適合深度學(xué)習。

  幾乎所有深度學(xué)習的研究者都在使用GPU

  熟悉深度學(xué)習的人都知道,深度學(xué)習是需要訓練的,所謂的訓練就是在成千上萬(wàn)個(gè)變量中尋找最佳值的計算。這需要通過(guò)不斷的嘗試實(shí)現收斂,而最終獲得的數值并非是人工確定的數字,而是一種常態(tài)的公式。通過(guò)這種像素級的學(xué)習,不斷總結規律,計算機就可以實(shí)現像像人一樣思考。如今,幾乎所有的深度學(xué)習(機器學(xué)習)研究者都在使用GPU進(jìn)行相關(guān)的研究。當然,我說(shuō)的是“幾乎”。除了GPU之外,包括MIC和也提供了不同的解決方案。NVIDIA如何看待不同的硬件架構對深度學(xué)習的影響,又是如何評價(jià)這些技術(shù)的呢?

  NVIDIA中國區解決方案架構工程總監羅華平認為:“技術(shù)發(fā)展和科技的發(fā)展,是需要不同的技術(shù)一起來(lái)參與。無(wú)論是GPU也好、也好或者是專(zhuān)用的神經(jīng)網(wǎng)芯片也好,它的主要目的都是推動(dòng)深度學(xué)習(機器學(xué)習)這個(gè)方向的技術(shù)發(fā)展。那么我們在初期,確實(shí)可以嘗試不同的技術(shù),來(lái)探討哪種技術(shù)可以更好的適合這項應用。從目前來(lái)看,深度學(xué)習大量的使用,主要集中在訓練方面。那么在這個(gè)領(lǐng)域,GPU確實(shí)是非常適合的,這也體現在所有的這些工業(yè)界的大佬如BAT、谷歌,Facebook等等,都在使用GPU在做訓練?!倍擞柧氈?,在實(shí)際的應用方面,NVIDIA也正在結合中國地區IDC機房普遍具備的功耗、網(wǎng)絡(luò )等特點(diǎn),“考慮是否設計低功耗的GPU,來(lái)滿(mǎn)足用戶(hù)的需求”。

  除了硬件方面的因素之外,英偉達中國區技術(shù)經(jīng)理賴(lài)俊杰也從軟件方面解答了GPU對于深度學(xué)習應用的價(jià)值。首先從深度學(xué)習應用的開(kāi)發(fā)工具角度,具備CUDA支持的GPU為用戶(hù)學(xué)習Caffe、Theano等研究工具提供了很好的入門(mén)平臺。其實(shí)GPU不僅僅是指專(zhuān)注于HPC領(lǐng)域的Tesla,包括Geforce在內的GPU都可以支持CUDA計算,這也為初學(xué)者提供了相對更低的應用門(mén)檻。除此之外,CUDA在算法和程序設計上相比其他應用更加容易,通過(guò)NVIDIA多年的推廣也積累了廣泛的用戶(hù)群,開(kāi)發(fā)難度更小。最后則是部署環(huán)節,GPU通過(guò)PCI-e接口可以直接部署在服務(wù)器中,方便而快速。得益于硬件支持與軟件編程、設計方面的優(yōu)勢,GPU才成為了目前應用最廣泛的平臺。

  深度學(xué)習發(fā)展遇到瓶頸了嗎?

  我們之所以使用GPU加速深度學(xué)習,是因為深度學(xué)習所要計算的數據量異常龐大,用傳統的計算方式需要漫長(cháng)的時(shí)間。但是,如果未來(lái)深度學(xué)習的數據量有所下降,或者說(shuō)我們不能提供給深度學(xué)習研究所需要的足夠數據量,是否就意味著(zhù)深度學(xué)習也將進(jìn)入“寒冬”呢?對此,賴(lài)俊杰也提出了另外一種看法?!白錾疃壬窠?jīng)網(wǎng)絡(luò )訓練需要大量模型,然后才能實(shí)現數學(xué)上的收斂。深度學(xué)習要真正接近成人的智力,它所需要的神經(jīng)網(wǎng)絡(luò )規模非常龐大,它所需要的數據量,會(huì )比我們做語(yǔ)言識別、圖像處理要多得多。假設說(shuō),我們發(fā)現我們沒(méi)有辦法提供這樣的數據,很有可能出現寒冬”。

  不過(guò)他也補充認為——從今天看到的結果來(lái)說(shuō),其實(shí)深度學(xué)習目前還在蓬勃發(fā)展往上的階段。比如說(shuō)我們現階段主要做得比較成熟的語(yǔ)音、圖像方面,整個(gè)的數據量還是在不斷的增多的,網(wǎng)絡(luò )規模也在不斷的變復雜?,F在我沒(méi)有辦法預測,將來(lái)是不是會(huì )有一天數據真不夠用了。

  對于NVIDIA來(lái)說(shuō),深度學(xué)習是GPU計算發(fā)展的大好時(shí)機,也是繼HPC之后一個(gè)全新的業(yè)務(wù)增長(cháng)點(diǎn)。正如Pandey所提到的那樣,NVIDIA將世界各地的成功經(jīng)驗帶到中國,包括國外的成功案例、與合作伙伴的良好關(guān)系等等,幫助中國客戶(hù)的快速成長(cháng)?!耙驗楝F在是互聯(lián)網(wǎng)的時(shí)代,是沒(méi)有跨界的時(shí)代,大家都是同等一起的?!?/p>

  GPU、 還是專(zhuān)用芯片?

  盡管深度學(xué)習和人工智能在宣傳上炙手可熱,但無(wú)論從仿生的視角抑或統計學(xué)的角度,深度學(xué)習的工業(yè)應用都還是初階,深度學(xué)習的理論基礎也尚未建立和完善,在一些從業(yè)人員看來(lái),依靠堆積計算力和數據集獲得結果的方式顯得過(guò)于暴力——要讓機器更好地理解人的意圖,就需要更多的數據和更強的計算平臺,而且往往還是有監督學(xué)習——當然,現階段我們還沒(méi)有數據不足的憂(yōu)慮。未來(lái)是否在理論完善之后不再依賴(lài)數據、不再依賴(lài)于給數據打標簽(無(wú)監督學(xué)習)、不再需要向計算力要性能和精度?

  退一步說(shuō),即便計算力仍是必需的引擎,那么是否一定就是基于GPU?我們知道,CPU和FPGA已經(jīng)顯示出深度學(xué)習負載上的能力,而IBM主導的SyNAPSE巨型神經(jīng)網(wǎng)絡(luò )芯片(類(lèi)人腦芯片),在70毫瓦的功率上提供100萬(wàn)個(gè)“神經(jīng)元”內核、2.56億個(gè)“突觸”內核以及4096個(gè)“神經(jīng)突觸”內核,甚至允許神經(jīng)網(wǎng)絡(luò )和機器學(xué)習負載超越了馮·諾依曼架構,二者的能耗和性能,都足以成為GPU潛在的挑戰者。例如,科大訊飛為打造“訊飛超腦”,除了GPU,還考慮借助深度定制的人工神經(jīng)網(wǎng)絡(luò )專(zhuān)屬芯片來(lái)打造更大規模的超算平臺集群。

  不過(guò),在二者尚未產(chǎn)品化的今天,NVIDIA并不擔憂(yōu)GPU會(huì )在深度學(xué)習領(lǐng)域失寵。首先,NVIDIA認為,GPU作為底層平臺,起到的是加速的作用,幫助深度學(xué)習的研發(fā)人員更快地訓練出更大的模型,不會(huì )受到深度學(xué)習模型實(shí)現方式的影響。其次,NVIDIA表示,用戶(hù)可以根據需求選擇不同的平臺,但深度學(xué)習研發(fā)人員需要在算法、統計方面精益求精,都需要一個(gè)生態(tài)環(huán)境的支持,GPU已經(jīng)構建了CUDA、cuDNN及DIGITS等工具,支持各種主流開(kāi)源框架,提供友好的界面和可視化的方式,并得到了合作伙伴的支持,例如浪潮開(kāi)發(fā)了一個(gè)支持多GPU的Caffe,曙光也研發(fā)了基于PCI總線(xiàn)的多GPU的技術(shù),對熟悉串行程序設計的開(kāi)發(fā)者更加友好。相比之下,FPGA可編程芯片或者是人工神經(jīng)網(wǎng)絡(luò )專(zhuān)屬芯片對于植入服務(wù)器以及編程環(huán)境、編程能力要求更高,還缺乏通用的潛力,不適合普及。








關(guān)鍵詞: GPU FPGA

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>