<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 這是AI的時(shí)代,也是英偉達的時(shí)代

這是AI的時(shí)代,也是英偉達的時(shí)代

作者:ZongYu 時(shí)間:2023-03-29 來(lái)源:EEPW 收藏

在剛剛過(guò)去的3月21日,如期舉辦了今年的GTC大會(huì )(全稱(chēng)為 Technology Conference),作為主辦的最重要的 技術(shù)交流活動(dòng),從 2019 年開(kāi)始每年舉辦一屆。在本次大會(huì )上,CEO 黃仁勛就目前大熱的生成式做了題為《切勿錯過(guò) 的決定性時(shí)刻》的主題演講,同時(shí)發(fā)布了英偉達為ChatGPT專(zhuān)門(mén)研發(fā)的全新超高性能——NVIDIA H100 NVL。

本文引用地址:http://dyxdggzs.com/article/202303/445043.htm



   

圖片

NVIDIA H100 NVL


01

領(lǐng)域所向披靡的英偉達


許多讀者了解英偉達是在其游戲GPU領(lǐng)域,GTX、RTX系列顯卡對于廣大消費者來(lái)說(shuō)已經(jīng)是相當熟悉了,但本次大會(huì )的重點(diǎn)似乎是AI領(lǐng)域,難道看到近期 AI 大火后也要來(lái)分一杯羹了?實(shí)則不然,英偉達與AI可以說(shuō)有著(zhù)相當深的淵源,實(shí)際上自2012年,在深度學(xué)習框架剛剛提出的伊始,AI便與英偉達綁定在了一起,當時(shí),Alex Krizhevsky、Ilya Suskever,以及 Hinton 在英偉達的顯卡 GeForce GTX 580 上使用了 1400 萬(wàn)張圖完成了訓練,可處理 262 千萬(wàn)億次浮點(diǎn)運算。而十年之后,生成式AI里程牌式的模型Transformer橫空出世,OpenAI團隊就是使用了英偉達提供的GPU A100訓練AI,由此,創(chuàng )造出了令全世界震驚的目前最強AI——ChatGPT。

可以說(shuō),沒(méi)有英偉達強悍的硬件支持,那么就不會(huì )有今天的ChatGPT,這個(gè)被稱(chēng)為“下一次工業(yè)革命元年”的2023年,不知要推遲多久才能到來(lái)。在本次英偉達GTC大會(huì )上,英偉達CEO黃仁勛難掩其激動(dòng)的心情,連連重復了三遍:“我們正處于 AI 的 iPhone 時(shí)刻!”。是的,對于手中擁有A100和H100兩款市面上獨一無(wú)二的超級“核彈”來(lái)說(shuō),ChatGPT的空前成功,已經(jīng)讓英偉達“贏(yíng)麻了”。萬(wàn)人空巷的ChatGPT已經(jīng)讓英偉達的股價(jià)又一次坐上了火箭,市值直接增加 700 多億美元,目前,英偉達市值為 6400 億美元。數錢(qián)數到手軟的黃仁勛也是放出豪言:英偉達就是要做 AI 圈的臺積電!

圖片

難掩喜悅的英偉達CEO黃仁勛

要知道,兩年前英偉達推出的A100其性能到現在也沒(méi)有對手,而去年GTC 2022所推出的H100更是一下子將最強GPU的標準整整提升了3倍!而本次GTC所推出的H100至尊版(H100 NVLINK)更是能將生成式AI(ChatGPT)的算力、提速 10 倍??梢哉f(shuō)在A(yíng)I計算上,英偉達所提供的硬件已經(jīng)完全壟斷了市場(chǎng),其他廠(chǎng)商短期內難以望其項背。



02

為ChatGPT而生的專(zhuān)用“核彈”


本次大會(huì )所推出的重量級產(chǎn)品H100 NVLINK是專(zhuān)門(mén)針對大型語(yǔ)言模型訓練(LLM)設計,其搭載了兩個(gè)基于Hopper架構的H100芯片,頂部配備了三個(gè)NVLink連接器,使用了兩個(gè)相鄰的PCIe插槽。其FP64計算性能為134 teraFLOPS,TF32計算性能為1979 teraFLOPS,FP8計算性能為7916 teraFLOPS,INT8計算性能為7916 teraFLOPS,是H100 SXM的兩倍。其具有完整的6144位顯存接口(每個(gè)HBM3堆棧為1024位),顯存速率可達5.1Gbps,意味著(zhù)最大吞吐量為7.8GB/s,是H100 SM3的兩倍多。

基于此英偉達推出了DGX AI超級計算機,DGX配有8個(gè)H100 GPU模組,同時(shí)H100配有Transformer引擎,能夠處理ChatGPT這樣令人驚嘆的模型。8個(gè)H100模組通過(guò)NVLINK Switch彼此相連,實(shí)現了全面無(wú)阻塞通信。8個(gè)H100協(xié)同工作,就像是一個(gè)巨型的GPU。H100 NVL這樣的GPU,其應用無(wú)疑可以給AI的迭代進(jìn)化帶來(lái)更大的便利:

首先


超高性能的GPU可以加速訓練速度,這使得研究人員和開(kāi)發(fā)者能夠更快地訓練出更加復雜的模型,從而推動(dòng)AI的發(fā)展。

其次


隨著(zhù)AI應用領(lǐng)域的不斷擴展,處理的數據量也越來(lái)越大,而GPU的發(fā)展能夠處理大規模數據,并且在數據處理和分析中擁有更快的速度,因此能夠有效地處理大量的數據。

再次


由于GPU的高速計算能力,研究人員和開(kāi)發(fā)者能夠更加深入地優(yōu)化模型,進(jìn)一步提升模型的性能和精度。

最后


GPU的高速計算能力使得AI在各種應用場(chǎng)景中都得到了廣泛的應用,如自然語(yǔ)言處理、計算機視覺(jué)、語(yǔ)音識別等領(lǐng)域。這些應用的發(fā)展離不開(kāi)GPU的助力。

英偉達十幾年前就看到了AI在未來(lái)的潛力并一直在加速計算領(lǐng)域深耕,對此黃仁勛總結道:“短短十幾年,我們就從識別貓,跨越到了生成在月球行走的太空服貓的過(guò)程?,F在完全可以說(shuō),生成式 AI 就是一種新的計算機,一種可以用人類(lèi)語(yǔ)言進(jìn)行編程的計算機?!?/p>



03

計算光刻將提速40倍


本次GTC大會(huì ),英偉達還帶來(lái)另一項革命性的技術(shù),或將大幅提高先進(jìn)光學(xué)光刻機的刻蝕速度,這就是NVIDIA cuLitho的計算光刻庫。

英偉達宣布,自己已經(jīng)于 ASML、臺積電及新思科技攜手推出了 CuLitho 軟件庫,能夠借助 AI 的能力和學(xué)習技術(shù)來(lái)輔助運算,從而提高半導體的微影技術(shù),讓之后的芯片能夠擁有更緊湊的晶體管和布線(xiàn)。簡(jiǎn)單來(lái)說(shuō),這項技術(shù)的應用可以使先進(jìn)制程芯片的制造速度大幅提升,并且將更加節能。英偉達CEO黃仁勛表示:“計算光刻是芯片設計和制造領(lǐng)域中最大的計算工作負載,每年消耗數百億CPU小時(shí)。而英偉達的新技術(shù)最終會(huì )應用到計算光刻上,在這項技術(shù)的加持下,計算光刻的工作時(shí)長(cháng)能從幾周直接降低到八小時(shí)左右,效率翻了幾番?!?/p>

圖片

據悉,生產(chǎn)一塊NVIDIA H100需要89塊掩膜板,在使用傳統CPU進(jìn)行計算刻蝕的時(shí)候,處理單個(gè)掩模板,需要整整2周時(shí)間。而如果在GPU上運行cuLitho則只需8小時(shí)即可處理完一個(gè)掩膜板。不僅處理速度被大大加快,其需要的功耗也被大幅減低,對此黃仁勛說(shuō)道:“臺積電可以通過(guò)在500個(gè)DGX H100系統上使用cuLitho加速,將功率從35MW降至5MW?!?nbsp;        


04

英偉達不止于此


在英偉達對于未來(lái)的規劃中,它將參與到AI應用的方方面面,甚至英偉達還計劃將AI引入量子計算領(lǐng)域。其推出的L4 Tensor Core GPU,專(zhuān)門(mén)針對AI生成視頻,其用于加速AI視頻,可以提供比CPU高120倍的性能,能效提升約99%??梢?xún)?yōu)化視頻解碼與轉碼、視頻內容審核、視頻通話(huà)等性能,一臺8-GPU L4服務(wù)器可以取代100多臺用于處理AI視頻的雙插槽CPU服務(wù)器;對于靜態(tài)AI生成圖像,英偉達也拿出了對應的L40 GPU,其針對2D、3D圖像生成進(jìn)行優(yōu)化,并可以結合Omniverse,直接生成3D內容,甚至是元宇宙內容。在未來(lái),英偉達還將推出AI超級云計算,將出租針對AI的算力,讓每個(gè)企業(yè)都可以使用簡(jiǎn)單的網(wǎng)絡(luò )瀏覽器訪(fǎng)問(wèn)AI超算。這是AI的時(shí)代,也是英偉達的時(shí)代。


05

寫(xiě)在最后


正如此次 GTC 的演講主題:" 切勿錯過(guò) AI 的決定性時(shí)刻 ",不管我們目前對 AI 是何看法,但不可否認的是未來(lái) AI 的作用和戰略性地位會(huì )越來(lái)越高。但是目前,我國的AI發(fā)展情況不容樂(lè )觀(guān),加上美國政府對于先進(jìn)GPU的層層禁令,本次GTC所發(fā)布的H100 NVL要想出口給我國可謂是困難重重,頂級硬件的獲取受限,這對于本就處于競爭劣勢的我國來(lái)說(shuō)無(wú)疑是雪上加霜。但是英偉達畢竟是家商業(yè)公司,絕對不會(huì )放棄中國這個(gè)龐大的市場(chǎng),有業(yè)內人士透露,后續英偉達會(huì )發(fā)布一些閹割特供版(暫定為 A800)給到國內企業(yè)。

就目前來(lái)看,現在即將來(lái)到AI的時(shí)代,但更是英偉達的時(shí)代。




關(guān)鍵詞: 英偉達 GTC 2023 GPU AI

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>