<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 編輯觀(guān)點(diǎn) > 英偉達發(fā)布Blackwell芯片,再次證明統治力

英偉達發(fā)布Blackwell芯片,再次證明統治力

作者:陳玲麗 時(shí)間:2024-03-21 來(lái)源:電子產(chǎn)品世界 收藏

隨著(zhù)人工智能革命席卷而來(lái),抓住生成式機會(huì )的全面出擊,為大小挑戰者設下新標桿。3月19日,在2024年GTC大會(huì )上發(fā)布Hopper架構的繼任者 —— 全新架構平臺,包括AWS、微軟和谷歌在內的公司計劃將其用于生成人工智能和其他現代計算任務(wù)。

本文引用地址:http://dyxdggzs.com/article/202403/456644.htm

的形態(tài)已徹底改變

架構“”得名于美國數學(xué)家David Harold ,與Grace CPU、新一代網(wǎng)絡(luò )等產(chǎn)品一起,面向生成式共同組成完整解決方案。黃仁勛稱(chēng)Blackwell不只是芯片,而是一個(gè)全新的平臺。這意味著(zhù)英偉達從芯片走向平臺的轉變。

基于該架構的芯片B200采用臺積電4NP制造工藝,密度方面應該不會(huì )有明顯的提升,而之前的H100基本上已經(jīng)是一個(gè)完整的掩模版,芯片尺寸為814mm2,而理論最大值為858mm2。為此B200使用了兩個(gè)全尺寸掩模版制造的芯片,每個(gè)對應四個(gè)HBM3E堆棧,每個(gè)堆棧的接口容量為24GB、帶寬為1TB/s。相比之下,每個(gè)H100芯片對應六個(gè)HBM3接口,意味著(zhù)B200每個(gè)芯片可以減少內存控制器所需要的芯片面積,從而將更多的晶體管用于計算單元。

640.gif

B200并不是傳統意義上的單一GPU,相反它由兩個(gè)緊密耦合的芯片組成,通過(guò)10TB/s NV-HBI(高帶寬接口)進(jìn)行連接,以確保它們能夠作為單個(gè)完全一致的芯片正常運行。B200總晶體管數量達到2080億個(gè)、內存帶寬達到8TB/s、擁有20 petaflops的性能,英偉達稱(chēng)其可實(shí)現在十萬(wàn)億級參數模型上的AI訓練和實(shí)時(shí)LLM(大語(yǔ)言模型)推理。

GPU的形態(tài)已徹底改變。需要更大的GPU,如果不能更大,就把更多GPU組合在一起,變成更大的虛擬GPU。Blackwell新架構硬件產(chǎn)品線(xiàn)都圍繞這一句話(huà)展開(kāi),通過(guò)芯片與芯片間的連接技術(shù),一步步構建出大型AI超算集群。

兩個(gè)B200 GPU與Grace CPU結合就成為GB200超級芯片,通過(guò)900GB/s的超低功耗NVLink芯片間互連技術(shù)連接在一起,將能夠使大模型推理工作負載的性能提升30倍,同時(shí)提高效率。相比于H100,它可以將成本和能源消耗降至1/25,而在參數為1750億的GPT-3 LLM基準測試中,GB200的性能達到了H100的7倍,而訓練速度則達到了H100的4倍。GB200將于今年晚些時(shí)候在NVIDIA DGX Cloud上以及通過(guò)AWS、谷歌云和Oracle云基礎設施實(shí)例提供。

640-2.gif

在多卡互聯(lián)方面,英偉達的NVLink和NVSwitch技術(shù)是其護城河。NVLINK是一種點(diǎn)對點(diǎn)的高速互連技術(shù),可以將多個(gè)GPU直接連接起來(lái),第五代NVLink在多達576個(gè)GPU之間可提供1.8TB/s的每GPU雙向通信吞吐量;同時(shí)NVLink引入了統一內存的概念,支持連接的GPU之間的內存池,這對于需要大型數據集的任務(wù)來(lái)說(shuō)是一個(gè)至關(guān)重要的功能。而NVSwitch是一種高速交換機技術(shù),可以將多個(gè)GPU和CPU直接連接起來(lái),形成一個(gè)高性能計算系統。

“新一代計算單元”GB200 NVL72由此誕生,GB200 NVL72是一個(gè)全機架解決方案,有18個(gè)1U服務(wù)器,每臺服務(wù)器里帶有兩個(gè)GB200,合計共有36個(gè)Grace CPU和72個(gè)B200,并且全部采用液冷MGX封裝。黃仁勛在介紹此臺機器時(shí)說(shuō)道:“此時(shí)此刻,地球上也許只有三臺百億億次浮點(diǎn)運算(exaflop)機器。而這是一個(gè)單一機架中的1個(gè)百億億次浮點(diǎn)運算AI系統?!?/p>

640.jpeg

值得注意的是,為了獲得最高的AI性能,基于GB200的系統可以與同期發(fā)布的Quantum-X800 InfiniBand和Spectrum-X800以太網(wǎng)平臺連接,可提供速度高達800Gb/s的高級網(wǎng)絡(luò ),配合散熱系統組成新一代DGX SuperPod集群。DGX GB200 SuperPod采用新型高效液冷機架規模架構,標準配置可在FP4精度下提供11.5 exaflops算力和240TB高速內存,并可通過(guò)額外的機架進(jìn)行擴展。

此外,Blackwell支持的GPU包含RAS專(zhuān)用引擎,實(shí)現可靠性、可用性和服務(wù)性;還增加了芯片級功能,利用基于A(yíng)I的預防性維護進(jìn)行診斷和預測可靠性問(wèn)題。這可以最大限度地延長(cháng)系統正常運行時(shí)間,并提高大部署規模AI的彈性,使其能連續運行數周甚至數月,并降低運營(yíng)成本。

“這樣我們可以大量地節省能源、網(wǎng)絡(luò )帶寬量和時(shí)間?!秉S仁勛表示,“未來(lái)將是可生成的,這就是為什么這是一個(gè)全新的行業(yè)。我們的計算方式有本質(zhì)差異,所以英偉達為生成式AI時(shí)代打造了一款全新處理器?!?/strong>

進(jìn)軍機器人領(lǐng)域

在GTC上,黃仁勛展示了多個(gè)由GR00T驅動(dòng)的人形機器人如何完成各種任務(wù),包括來(lái)自Agility Robotics、Apptronik、傅利葉智能(Fourier Intelligence)和宇樹(shù)科技(Unitree Robotics)的機器人產(chǎn)品。GR00T驅動(dòng)的機器人將能夠理解自然語(yǔ)言,并通過(guò)觀(guān)察人類(lèi)行為來(lái)模仿動(dòng)作。

英偉達過(guò)去針對機器人市場(chǎng)的Isaac機器人平臺也得到重大更新,發(fā)布了一款基于Thor芯片的新型人形機器人計算機Jetson Thor。據介紹,Jetson Thor是一個(gè)全新的計算平臺,能夠執行復雜的任務(wù)并安全、自然地與人和機器交互,具有針對性能、功耗和尺寸優(yōu)化的模塊化架構。

該SoC包括一個(gè)帶有transformer engine的下一代GPU,其采用英偉達Blackwell架構,可提供每秒800萬(wàn)億次8位浮點(diǎn)運算AI性能,以運行GR00T等多模態(tài)生成式AI模型。憑借集成的功能安全處理器、高性能CPU集群和100GB以太網(wǎng)帶寬,大大簡(jiǎn)化了設計和集成工作。

為了幫助機器人更好地感知所處環(huán)境,還發(fā)布了Isaac Perceptor軟件開(kāi)發(fā)工具包,該工具包具有最先進(jìn)的多攝像頭視覺(jué)里程計、3D重建和占用地圖,以及深度感知功能;以及為了使機械臂更具適應性,宣布推出Isaac Manipulator,一個(gè)先進(jìn)的機械臂感知、路徑規劃和運動(dòng)學(xué)控制庫。

自動(dòng)駕駛未來(lái)可期

根據Frost&Sullivan統計數據顯示,2022年英偉達出貨量占到全球高算力自動(dòng)駕駛芯片市場(chǎng)份額為82.5%。按照黃仁勛的規劃,未來(lái)汽車(chē)業(yè)務(wù)將與數據中心、游戲并列成為英偉達的三大支柱業(yè)務(wù)。

最新發(fā)布的集中式車(chē)載計算平臺DRIVE Thor也將搭載全新Blackwell架構。多家頭部電動(dòng)汽車(chē)制造商在GTC上展示了其搭載DRIVE Thor的下一代AI車(chē)型,既包括比亞迪、廣汽埃安、小鵬、理想汽車(chē)和極氪等眾多中國車(chē)企,也包括了文遠知行等自動(dòng)駕駛平臺公司。

推理微服務(wù)成為AI入口

隨著(zhù)人工智能技術(shù)加速在各領(lǐng)域的滲透和變革,除了硬件產(chǎn)品,英偉達還與大量與企業(yè)合作,推進(jìn)AI落地。為此,英偉達推出了推理微服務(wù),即NVIDIA NIM,能夠將開(kāi)發(fā)者與數億個(gè)GPU連接起來(lái),以部署各種定制AI。這是一種全新的軟件打包和交付方式,該服務(wù)有望支撐英偉達未來(lái)在A(yíng)I服務(wù)上的營(yíng)收增長(cháng)。

其具體模式為:英偉達提供預訓練好的AI模型并開(kāi)放API(應用程序接口),再由行業(yè)客戶(hù)開(kāi)發(fā)應用,以簡(jiǎn)化企業(yè)自己開(kāi)發(fā)生成式AI應用的成本。

640.png

這些微服務(wù)支持行業(yè)標準API、易于連接,可在英偉達龐大的CUDA安裝基礎上工作,針對新GPU進(jìn)行重新優(yōu)化,并不斷掃描安全漏洞和威脅。黃仁勛也在現場(chǎng)示范了英偉達內部藉NIM所打造的“芯片設計聊天機器人”,經(jīng)過(guò)數據訓練和模型微調后,聊天機器人即可給出符合芯片設計領(lǐng)域的答案,甚至能同步生成所需的程序代碼。

企業(yè)IT行業(yè)正坐在一座「金礦」上,擁有多年來(lái)創(chuàng )建的所有這些令人驚嘆的工具和數據,如果能把它們變成AI助手,就能提供更多可能。

· 在量子計算領(lǐng)域,英偉達宣布推出云量子計算機模擬微服務(wù),幫助研究人員和開(kāi)發(fā)人員在化學(xué)、生物學(xué)、材料科學(xué)等科學(xué)領(lǐng)域的量子計算研究,該服務(wù)基于開(kāi)源CUDA-Q量子計算平臺,支持用戶(hù)在云端構建并測試新的量子算法和應用,包括支持量子-經(jīng)典混合算法編程的模擬器和工具等。與其他云服務(wù)不同,英偉達目前還沒(méi)有量子計算機,但未來(lái)它將提供第三方量子計算機的訪(fǎng)問(wèn)。

· 在醫藥領(lǐng)域,英偉達宣布旗下包括Parabricks、MONAI、NeMo?、Riva、Metropolis,現已通CUDA-X微服務(wù)提供訪(fǎng)問(wèn),以加速藥物研發(fā)、醫學(xué)影像、基因組學(xué)分析等醫療工作流程。

游戲領(lǐng)域大顯身手

游戲起家的英偉達,自然也沒(méi)有忘記人工智能技術(shù)在游戲領(lǐng)域大顯身手,這次GTC上重點(diǎn)展示的是它的數字人技術(shù)。英偉達數字人平臺包括三項主要技術(shù):NVIDIA ACE、NVIDIA NeMo和RTX光線(xiàn)追蹤技術(shù),分別通過(guò)AI驅動(dòng)游戲角色語(yǔ)言、語(yǔ)音、動(dòng)畫(huà)和圖形。

其中,NVIDIA ACE可幫助開(kāi)發(fā)者通過(guò)Audio2Face驅動(dòng)的面部動(dòng)畫(huà)以及由Riva自動(dòng)語(yǔ)音識別(ASR)和文本轉語(yǔ)音(TTS)驅動(dòng)的語(yǔ)音交流,允許模型在云端和PC上運行,以確保用戶(hù)獲得最佳體驗。全球游戲發(fā)行商正評估NVIDIA ACE如何改善游戲體驗。

NVIDIA NeMo則可幫助開(kāi)發(fā)者提供企業(yè)級生成式AI模型,包括精確數據管理、模型個(gè)性化定制、檢索增強生成和加速性能等。最后,包含RTX全局光照(RTXGI)和DLSS 3.5等渲染技術(shù)的集合,可在游戲和應用中實(shí)現實(shí)時(shí)光線(xiàn)路徑追蹤。

總結

自從2022年底OpenAI宣布AI聊天機器人ChatGPT以來(lái),全球掀起了一輪巨大的AI熱潮,推動(dòng)了GPU芯片大廠(chǎng)英偉達數個(gè)財務(wù)季度的收入爆發(fā)式增長(cháng)。更加確切地說(shuō)是,英偉達在最近幾個(gè)財季的收入暴增,其實(shí)主要依賴(lài)數據中心業(yè)務(wù)作為增長(cháng)引擎。與此同時(shí),英偉達在資本市場(chǎng)上還受到投資者們狂熱地追捧,它的股價(jià)持續攀升。目前,英偉達已經(jīng)擁有2.26萬(wàn)億美元的市值,是全球市值排名第三的上市企業(yè),僅次于微軟的3.16萬(wàn)億美元和蘋(píng)果的2.76萬(wàn)億美元。

640-2.jpeg

預計每年全球對數據中心設備投入的費用將共計2500億美元,英偉達產(chǎn)品在其中占據的份額將超過(guò)其他芯片生產(chǎn)商。英偉達正致力提供AI模型和其他軟件,然后根據客戶(hù)的算力和運行的芯片數量向客戶(hù)收費,軟件業(yè)務(wù)未來(lái)有望帶來(lái)數十億美元營(yíng)收,成為高利潤率業(yè)務(wù)。

Blackwell產(chǎn)品線(xiàn)就由Nvidia AI Enterprise支持。英偉達的軟件和生態(tài)系統有助于加速AI的應用,同時(shí)進(jìn)一步構建“護城河”,構建了難以跨越的競爭壁壘。憑借領(lǐng)先GPU/DPU/CPU、硬件/軟件平臺和強大的生態(tài)系統,英偉達有望繼續從人工智能、高性能計算、游戲和自動(dòng)駕駛汽車(chē)的重大長(cháng)期趨勢中受益。



關(guān)鍵詞: 英偉達 Blackwell 芯片 GPU AI

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>