<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > 英偉達推出比H100更快的芯片,將于2024年二季度上市

英偉達推出比H100更快的芯片,將于2024年二季度上市

發(fā)布人:晴朗雨 時(shí)間:2023-08-09 來(lái)源:工程師 發(fā)布文章

·下一代版本的GH200 Grace Hopper超級芯片將成為世界上第一個(gè)配備HBM3e內存的GPU芯片。HBM3e內存將使下一代GH200運行AI模型的速度比當前模型快3.5倍。

·最新版本的GH200超級芯片將于2024年第二季度推出。這個(gè)時(shí)間晚于A(yíng)MD推出的最新數據中心GPU(Instinct MI300X)的上市時(shí)間。

英偉達首席執行官黃仁勛穿著(zhù)他標志性的皮夾克登上了世界頂級計算機圖形學(xué)會(huì )議SIGGRAPH的舞臺。

太平洋時(shí)間8月8日,英偉達首席執行官黃仁勛穿著(zhù)他標志性的皮夾克登上了世界頂級計算機圖形學(xué)會(huì )議SIGGRAPH的舞臺,宣布推出下一代版本的GH200 Grace Hopper超級芯片,該芯片將成為世界上第一個(gè)配備HBM3e(High Bandwidth Memory 3e)內存的GPU芯片。與當前一代產(chǎn)品相比,最新版本的GH200超級芯片內存容量增加了3.5倍,帶寬增加了3倍;相比最熱門(mén)的H100芯片,其內存增加1.7倍,傳輸頻寬增加1.5倍。

下一代版本的GH200 Grace Hopper超級芯片將成為世界上第一個(gè)配備HBM3e內存的GPU芯片。

GH200超級芯片本身并不是一個(gè)新產(chǎn)品,而是今年5月在中國臺北Computex展上發(fā)布的GH200芯片的更新版。有趣的是,另一家芯片巨頭AMD在6月推出搭載了192GB HBM3內存的數據中心GPU(Instinct MI300X)時(shí),就有業(yè)界人士提出其可能難以形成優(yōu)勢,因為英偉達可能會(huì )在同一時(shí)間段甚至更早時(shí)間內提供相同的內存。

英偉達超大規模和高性能計算副總裁兼總經(jīng)理伊恩·巴克(Ian Buck)對澎湃科技(www.thepaper.cn)表示:“我們對這款新的GH200感到非常興奮。HBM3e不僅增加了GPU的容量和內存量,而且速度也更快?!?/p>

英偉達表示,HBM3e內存將使下一代GH200運行AI模型的速度比當前模型快3.5倍。不過(guò)一個(gè)關(guān)鍵的問(wèn)題是,英偉達沒(méi)有透露超級芯片GH200的價(jià)格,這對計算成本高昂的大模型來(lái)說(shuō)尤為重要,H100系列目前售價(jià)約為4萬(wàn)美元。

值得注意的是,這次發(fā)布并未抬升英偉達的股價(jià)。其股價(jià)在發(fā)布會(huì )前已下跌約1%,消息公布后跌幅達3%,至盤(pán)中低點(diǎn)440.56美元,最終下跌1.66%至446.64美元。不過(guò),AMD股價(jià)也在當天收盤(pán)下跌3.1%,至113.23 美元。與此同時(shí),以科技股為主的納斯達克綜合指數下跌0.8%。

太平洋時(shí)間8月7日,摩根士丹利分析師愛(ài)德華·史丹利(Edward Stanley)發(fā)布報告稱(chēng),“無(wú)論是以英偉達為首的AI個(gè)股還是狹義AI類(lèi)股,自年初以來(lái)漲幅都超過(guò)200%。但一般而言股市泡沫在達到頂點(diǎn)前的3年回報率中間值約在150%,由此可見(jiàn)近來(lái)這波AI概念股漲勢已經(jīng)過(guò)頭?!?/p>

為什么內存對大模型重要?

隨著(zhù)支撐生成式人工智能應用程序的基礎AI模型尺寸的增加,為了能夠在不連接獨立芯片和系統的情況下運行,大模型需要更大的內存量,以避免性能下降。

巴克對記者表示,新款GH200的內存“快得多”,“擁有更大的內存允許模型保留在單個(gè)GPU上,并且不需要多個(gè)系統或多個(gè)GPU來(lái)運行?!薄邦~外的內存只會(huì )提高 GPU的性能?!蹦壳凹词故褂糜ミ_最頂級的H100芯片,有些模型也必須在其他GPU中“分解”模型才能運行。

據英偉達介紹,最新版本GH200配備141GB的HBM3e內存,旨在處理“世界上最復雜的生成式人工智能工作負載,涵蓋大型語(yǔ)言模型、推薦系統和矢量數據庫”。

“我們正在為Grace Hopper超級芯片提供全球最快的內存增強?!秉S仁勛在主題演講中說(shuō),“這款處理器旨在為全球數據中心的規模擴展而設計?!?/p>

據巴克對澎湃科技在內的媒體透露,最新版本的GH200超級芯片將于2024年第二季度推出。這個(gè)時(shí)間晚于A(yíng)MD推出的最新數據中心GPU(Instinct MI300X)的上市時(shí)間,后者將搭載類(lèi)似的5.2 TB/s帶寬,192GB HBM3內存。據悉,MI300X將在第三季度出樣,相關(guān)產(chǎn)品預計第四季度上市。

HBM3e和HBM3是什么關(guān)系?

HBM(高帶寬內存)各代之間的區別主要在于速度。據TrendForce報告,市場(chǎng)上的HBM3根據速度細分為兩類(lèi):一類(lèi)包括運行速度在5.6至6.4Gbps之間的HBM3,而另一類(lèi)則采用8 Gbps的HBM3e。

HBM3e內存比當前一代GH200中的HBM3技術(shù)快50%,將GPU的數據傳輸速率從原始Grace Hopper的4TB提高到每秒5TB(萬(wàn)億字節)。

英偉達尚未宣布他們將從哪里采購用于其GH200 GPU的全新HBM3e內存芯片。但此前據韓國《Money Today》和《首爾經(jīng)濟日報》援引業(yè)內人士的消息稱(chēng),英偉達已向芯片制造商海力士(SK Hynix)索要HBM3e樣品,以評估其對GPU性能的影響。

英偉達計劃銷(xiāo)售兩種版本:一種版本包含兩個(gè)可供客戶(hù)集成到系統中的芯片,另一種版本是結合了兩種Grace Hopper設計的完整服務(wù)器系統。

巴克對記者表示,英偉達正在開(kāi)發(fā)一種新的基于雙GH200的英偉達MGX服務(wù)器系統,該系統將集成兩個(gè)下一代Grace Hopper超級芯片。他解釋說(shuō),新的GH200將以英偉達的互連技術(shù)NVLink連接。

所謂超級芯片即是將英偉達的Grace中央處理單元(CPU)和Hopper圖形處理單元(GPU)連接在一起,以便它們能夠更有效地協(xié)同工作。借助新型雙GH200服務(wù)器中的NVLink,系統中的CPU和GPU將通過(guò)完全一致的內存互連進(jìn)行連接,每個(gè)超級芯片可以以相同的方式與其他芯片連接在一起,從而使它們可以像單個(gè)單位一樣運作。

巴克表示,“CPU可以訪(fǎng)問(wèn)其他CPU的內存,GPU可以訪(fǎng)問(wèn)其他GPU的內存,當然GPU也可以訪(fǎng)問(wèn)CPU的內存。因此,合并的超大型超級GPU可以作為一個(gè)整體運行,提供了144個(gè)Grace CPU核心,超過(guò)8 petaFLOP(每秒鐘進(jìn)行1千萬(wàn)億次浮點(diǎn)運算)的計算性能以及282GB的HBM3e內存?!?/p>

有趣的是,盡管名稱(chēng)為“GH200”,英偉達并沒(méi)有談?wù)揋PU芯片本身的任何變化。從歷史上看,英偉達的型號數字明確表示產(chǎn)品和架構的變化,第一個(gè)數字位置中的“2”表示全面的架構修訂,例如支撐了GeForce 900系列的“Maxwell 2”架構,所有這些部件的代號都是“GM2xx”??赡蹾opper芯片本身在這個(gè)版本中已經(jīng)經(jīng)歷了修訂,但英偉達并沒(méi)有談?wù)撨@方面的內容。

其他發(fā)布

除了GH200,英偉達的桌面AI工作站GPU系列也全面上新,一口氣推出了4款新品:RTX 6000、RTX 5000、RTX 4500和RTX 4000。針對企業(yè)客戶(hù),英偉達還準備一套一站式解決方案—— RTX Workstation,支持最多4張RTX 6000 GPU。

針對數據中心市場(chǎng),英偉達推出了最多可搭載8張L40S GPU的OVX服務(wù)器。據介紹,對于具有數十億參數和多種模態(tài)的生成式AI工作負載,L40S相較于老前輩A100可實(shí)現高達1.2倍的推理性能提升,以及高達1.7倍的訓練性能提升。

除了各種強大的硬件之外,英偉達還發(fā)布了全新的AI Workbench,來(lái)幫助開(kāi)發(fā)和部署生成式AI模型。AI Workbench為開(kāi)發(fā)者提供了一個(gè)統一且易于使用的工具包,能夠快速在PC或工作站上創(chuàng )建、測試和微調模型,并擴展到幾乎任何數據中心、公有云或英偉達的云服務(wù)DGX Cloud上。

作為最受AI開(kāi)發(fā)者喜愛(ài)的平臺之一,擁有200萬(wàn)用戶(hù)、超25萬(wàn)個(gè)模型,以及5萬(wàn)個(gè)數據集的Hugging Face也與英偉達達成合作。開(kāi)發(fā)者可以通過(guò)Hugging Face平臺直接獲得英偉達DGX Cloud AI超算的加持,完成AI模型的訓練和微調。

此外,英偉達的元宇宙開(kāi)發(fā)平臺Omniverse也進(jìn)行了更新。在接入了OpenUSD和AIGC工具之后,開(kāi)發(fā)者可以更加輕松地生成模擬真實(shí)世界的3D場(chǎng)景和圖形。

OpenUSD是皮克斯動(dòng)畫(huà)工作室開(kāi)發(fā)的一種開(kāi)放數據格式,允許團隊能夠在大規模3D工作流程上協(xié)同工作,并共享可在A(yíng)R(增強現實(shí))和VR(虛擬現實(shí))項目中使用的3D對象和環(huán)境的信息。當地時(shí)間8月1日,美國3D內容行業(yè)的5家主要公司蘋(píng)果、英偉達、皮克斯、Adobe和Autodesk聯(lián)合成立了OpenUSD聯(lián)盟(AOUSD)。OpenUSD技術(shù)是Omniverse平臺的基礎,有一天可能成為“元宇宙”的3D圖形標準。


*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: 英偉達 芯片

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>