<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 嵌入式系統 > 業(yè)界動(dòng)態(tài) > NVIDIA黃仁勛:GPU加速運算成為延展摩爾定律主要模式

NVIDIA黃仁勛:GPU加速運算成為延展摩爾定律主要模式

作者: 時(shí)間:2018-05-31 來(lái)源:經(jīng)濟日報 收藏

  在此次GTC Taiwan中,執行長(cháng)黃仁勛期未來(lái)10年內,每年對于運算需求的規模將成長(cháng)100倍,同時(shí)預期在摩爾定律逐漸衰減之下,全球前50大超級電腦的運算量將在未來(lái)5年內成長(cháng)15倍率,同時(shí)以加速運算的方式將成為延展摩爾定律的主要模式。

本文引用地址:http://dyxdggzs.com/article/201805/380824.htm



  黃仁勛在GTC Taiwan再次強調過(guò)去創(chuàng )造CUDA運算模式所帶動(dòng)加速效益,同時(shí)說(shuō)明未來(lái)借由加速運算的模式將會(huì )持續擴大,預期在2028年全球運算需求將等同1000萬(wàn)組Volta架構GPU所推動(dòng)效能,若以傳統通過(guò)多組CPU堆疊構成超級電腦等級運算能力,將會(huì )占據大規??臻g及高額電力花費,若以GPU替換的話(huà),則可節省更多空間與電力損耗,同時(shí)帶來(lái)更高加速效果。

  就目前超級電腦底經(jīng)成為現代科學(xué)發(fā)展重要工具,分別在分子建構、量子化學(xué)、量子力學(xué)、天氣預報、氣象研究、能源探索、物理模擬、數據分析與人工智能技術(shù)發(fā)展扮演重要角色,并且提供百萬(wàn)億次或百億等級運算效能。而就OpenAI統計顯示,未來(lái)5年內的人工智能運算模型將成長(cháng)30萬(wàn)倍,相比摩爾定律預期成長(cháng)速度快3萬(wàn)倍,借由GPU加速能力將可讓數據、演算程式復雜度大幅提升,借此解決過(guò)往人力無(wú)法解決運算需求。



  去年宣布推出整合Tensor Core設計,并且整合32GB HBM2內存的Volta架構GPU,借此對應125 Tensor TFLOPS運算效能,分別對應7.5 FP64 TFLOPS或15 FP32 TFLOPS預算效能,相比過(guò)往采用GPU加速運算模式可提升10倍效率,同時(shí)進(jìn)一步讓占用空間與電力損耗大幅降低。

  而為了突破硬體架構限制,在今年的GTC 2018更進(jìn)一步宣布推出NVSwitch,讓16組Volta GPU能共用高達512GB HBM2內存 (32GB x 16),總計可對應81920組CUDA核心、2000 Tensor Core TFLOPS運算效能,構成全球最高效能的GPU,并且不受傳統CPU架構限制GPU存取內存容量影響。借由NVSwitch的設計,NVIDIA更宣布推出全球最大 (并且可游玩游戲)的DGX-2 GPU,對應借由高達2PFLOPS運算效能,并且特殊多孔纖維設計讓運作功率高達10000W的機盒維持低溫運作,相比半年前正式推出的DGX-1運算效能提升10倍。

  相比過(guò)往必須借由300組雙核心CPU構成、必須消耗180000W功率能耗運作的服務(wù)器,通過(guò)單組DGX-2 GPU即可對應相同運算效能,但整替價(jià)格僅需1/8與1/18功率能耗,同時(shí)相比過(guò)往Alex 練Alex Krizhevsky通過(guò)兩張NVIDIA GTX 580 GPU,花費6天時(shí)間完成訓練AlexNet,借由DGX-2 GPU僅需18分鐘即可完成。同時(shí)DGX-2 GPU也分別打破每秒分析1075個(gè)影像,成為最快單晶片運算速度,以及每秒可在每個(gè)節點(diǎn)處理15500個(gè)影像,并且可在14分鐘內完成擴充,推論延遲時(shí)間僅在1.1毫秒,每秒更可推論演算6250個(gè)影像。

  通過(guò)DGX-2的運算能力與NVSwitch串接技術(shù),NVIDIA也宣布推出以DGX-2建構的服務(wù)器平臺設計HGX-2,并且與廣達、云達、富士康、英業(yè)達、緯創(chuàng )、緯穎、華碩、技嘉、華擎、泰安、宏碁等臺灣在地廠(chǎng)商合作,同時(shí)強調全球約有90%服務(wù)器源自臺灣,而NVIDIA也與更多臺灣在地廠(chǎng)商持續合作。

  借由GPU運算能力,配合與Adobe等軟體廠(chǎng)商合作的影像處理技術(shù),將可實(shí)現即時(shí)修改影像中不必要物件,或是重建影像中缺乏內容,甚至能進(jìn)一步呈現“美顏”效果。同時(shí)通過(guò)與Google提出的kubernetes容器集群管理系統合作,將可讓更多人工智能系統能因應不同運算需求動(dòng)態(tài)調整運算效能,借此讓GPU架速運算效能有更彈性配置效益,將與阿里巴巴、百度、eBay、HIKVISION、IBM、小米等廠(chǎng)商合作。

  在與臺灣合作部分,NVIDIA表示目前富士康將借由人工智能技術(shù)檢測制作生產(chǎn)效率,中國醫藥大學(xué)附設醫院通過(guò)人工智能技術(shù)協(xié)助醫師分析預測癌癥腫瘤轉移情況,臺灣大學(xué)則通過(guò)人工智能區分鼻咽癌危及器官,而臺灣人工智能實(shí)驗室也通過(guò)人工智能技術(shù)協(xié)助臺南市政府監測橋梁結構預防臺風(fēng)損害,桃園市政府則計劃在2020年前讓30%固定行駛路線(xiàn)的公車(chē)能配置Level 3自動(dòng)駕駛功能。

  如同先前在GTC 2018期間以“PLASTER”作為主題演講結尾,黃仁勛也強調分別借由可編程 (Programmability)、低延遲 (Latency)、高精準度 (Accuracy)、規?;?(Size)、數據吞吐量 (Throughput)、能耗效率 (Energy Efficiency),進(jìn)而推動(dòng)學(xué)習訓練效率 (Rate of Learning),讓人工智能能以更快速度成長(cháng)。



關(guān)鍵詞: NVIDIA GPU

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>