老黃又來(lái)“搶錢(qián)”:英偉達再推超強芯片平臺,守住萬(wàn)億芯片老大擂臺
文| Juny 編輯| VickyXiao
在最近風(fēng)起云涌的AI圈里,每一片英偉達H100 GPU的走向都被大家緊盯著(zhù)。原因無(wú)它,就因為H100是當前進(jìn)行人工智能訓練的最強引擎。如今,全球約90%以上的大模型都在使用英偉達的GPU芯片,作為生成式AI時(shí)代下最為關(guān)鍵的基礎硬件,幾乎所有人工智能企業(yè)都在四處搜尋H100的蹤影。一定程度上來(lái)說(shuō),誰(shuí)擁有了更多的H100,誰(shuí)就在當前AI競賽中占據著(zhù)上風(fēng)。而今天,在洛杉磯的SIGGRAPH大會(huì )上,英偉達宣布了新一代GH200 Grace Hopper超級芯片平臺的到來(lái)。GH200專(zhuān)門(mén)為加速計算和生成人工智能時(shí)代而打造,旨在處理世界上最復雜的生成式人工智能工作負載,涵蓋大型語(yǔ)言模型、推薦系統和矢量數據庫,并將提供多種配置。不僅僅只是超級芯片,圍繞著(zhù)生成式AI的方方面面,英偉達今天還發(fā)布了一系列更新,包括全新AI服務(wù)平臺、推出了4款新顯卡、服務(wù)器等等,試圖全方位加速和簡(jiǎn)化生成式AI項目的開(kāi)發(fā)、訓練、部署和應用。|為生成式AI時(shí)代打造最強超級芯片平臺此次,全新的Grace Hopper 超級芯片該平臺配備了全球首款 HBM3e 處理器,通過(guò)大幅增加帶寬和內存,將為更大的 AI 模型提供訓練和計算能力。該配置經(jīng)過(guò)優(yōu)化,GH200還可以執行 AI 推理功能,從而有效地為 ChatGPT 等生成式 AI 應用程序提供支持。英偉達之所以稱(chēng)GH200為“超級芯片”,因為它將基于 Arm 的 Nvidia Grace CPU 與 Hopper GPU 架構結合在了一起。GH200 與目前最高端的 AI 芯片 H100 具有相同的 GPU,H100 擁有 80GB 內存,而新款 GH200 的內存高達141GB同時(shí)與 72 核 ARM 中央處理器進(jìn)行了配對。新版本的GH200采用了全球最快的內存技術(shù)HBM3e。英偉達表示,HBM3e內存技術(shù)帶來(lái)了50%的速度提升,總共提供了10TB/秒的組合帶寬。因此,新平臺能夠運行比先前版本大3.5倍的模型,并以3倍的內存帶寬提高性能。擁有更大的內存也意味著(zhù)未來(lái)可以讓模型駐留在單個(gè) GPU 上,而不必需要多個(gè)系統或多個(gè) GPU 才能運行。不僅能力得到了大幅提升,英偉達還Nvidia 還發(fā)布了NVIDIA NVLink?服務(wù)器設計對GH200進(jìn)行了擴展。NVIDIA NVLink?將允許Grace Hopper超級芯片可以與其他超級芯片連接組合,這一技術(shù)方案為GPU提供了完全訪(fǎng)問(wèn)CPU內存的途徑。英偉達表示,目前正在開(kāi)發(fā)一款新的雙GH200基礎NVIDIA MGX服務(wù)器系統,將集成兩個(gè)下一代Grace Hopper超級芯片。在新的雙GH200服務(wù)器中,系統內的CPU和GPU將通過(guò)完全一致的內存互連進(jìn)行連接,這個(gè)超級GPU可以作為一個(gè)整體運行,提供144個(gè)Grace CPU核心、8千萬(wàn)億次的計算性能以及282GB的HBM3e內存,從而能夠適用于生成式AI的巨型模型。GH200還能夠兼容今年早些時(shí)候在COMPUTEX上公布的NVIDIA MGX?服務(wù)器規格。有了MGX,制造商可以迅速且經(jīng)濟高效地將Grace Hopper技術(shù)整合到100多種服務(wù)器變體中。NVIDIA首席執行官黃仁勛強調,數據中心需要應對生成型AI的激增需求,因此也需要有更具針對性的加速計算平臺,GH200平臺正是為滿(mǎn)足這一需求而生。“你幾乎可以將任何你想要的大型語(yǔ)言模型放入其中,它會(huì )瘋狂地進(jìn)行推理。大型語(yǔ)言模型的推理成本將大幅下降,同時(shí)將大幅提高數據中心的運作效率和性能?!?/span>目前,英偉達計劃銷(xiāo)售GH200的兩種版本:一種是包含兩個(gè)可供客戶(hù)集成到系統中的芯片,另一種則是結合了兩種 Grace Hopper 設計的完整服務(wù)器系統。
英偉達表示,全新的GH200將大大降低訓練成本和提升訓練速度,預計將于明年第二季度上市。|推出AI Workbench服務(wù),企業(yè)級AI項目本地也能開(kāi)發(fā)部署除了全新的超級芯片平臺,英偉達今天還宣布了推出了一個(gè)新的AI服務(wù)——AI Workbench,這是一個(gè)易于使用的統一工具包,讓開(kāi)發(fā)人員能夠在 PC 或工作站上快速創(chuàng )建、測試和自定義預訓練的生成式 AI 模型,然后將其擴展到幾乎任何數據中心、公共云或NVIDIA DGX? 云。英偉達認為,當前企業(yè)級AI的開(kāi)發(fā)過(guò)程太過(guò)繁瑣和復雜,不僅需要在多個(gè)庫中尋找合適的框架和工具,當項目需要從一個(gè)基礎設施遷移到另一個(gè)基礎設施時(shí),過(guò)程可能會(huì )變得更加具有挑戰性。研究機構KDnuggets曾進(jìn)行過(guò)一個(gè)調查,80%或更多的項目在部署機器學(xué)習模型之前停滯不前。Gartner的另一項研究也顯示,由于基礎設施的障礙,有接近85%的大數據項目失敗。總體來(lái)看,企業(yè)模型投入生產(chǎn)的成功率總體較低,世界各地的企業(yè)都在尋找合適的基礎設施來(lái)構建生成AI模型和應用。而此次,AI Workbench則為這個(gè)過(guò)程提供了簡(jiǎn)化的路徑。黃仁勛在會(huì )議上表示,為了推動(dòng)AI技術(shù)普惠,必須讓其有可能在幾乎任何地方運行。因此,AI Workbench將支持在本地機器上進(jìn)行模型的開(kāi)發(fā)和部署,而不是云服務(wù)上。AI Workbench提供了一個(gè)簡(jiǎn)單的用戶(hù)界面,開(kāi)發(fā)人員能夠將模型、框架、SDK 和庫從開(kāi)源資源整合到統一的工作區中,可以在本地計算機上運行并連接到 HuggingFace、Github以及其他流行的開(kāi)源或商用 AI 代碼存儲庫。也就是說(shuō),開(kāi)發(fā)人員可以在一個(gè)界面上輕松訪(fǎng)問(wèn)大部分AI開(kāi)發(fā)所需資源,不用打開(kāi)不同的瀏覽器窗口。
英偉達表示,使用 AI Workbench 的一些主要優(yōu)勢包括:易于使用的開(kāi)發(fā)平臺。 AI Workbench 通過(guò)提供單一平臺來(lái)管理數據、模型和計算資源,支持跨機器和環(huán)境的協(xié)作,從而簡(jiǎn)化了開(kāi)發(fā)流程。與 AI 開(kāi)發(fā)工具和存儲庫集成。 AI Workbench 與 GitHub、NVIDIA NGC 和 Hugging Face 等服務(wù)和 Git 服務(wù)器集成,用戶(hù)可以使用 JupyterLab 和 VS Code 等工具跨平臺和基礎設施進(jìn)行開(kāi)發(fā),具有高度的可重復性和透明度。增強協(xié)作。該項目結構有助于自動(dòng)化圍繞版本控制、容器管理和處理機密信息的復雜任務(wù),同時(shí)還支持跨團隊協(xié)作。訪(fǎng)問(wèn)加速計算資源:AI Workbench 部署是客戶(hù)端-服務(wù)器模型,用戶(hù)能夠開(kāi)始在其工作站中的本地計算資源上進(jìn)行開(kāi)發(fā),并隨著(zhù)訓練作業(yè)的規模擴大而轉向數據中心或云資源。英偉達表示,目前戴爾、惠普、Lambda、聯(lián)想等人工智能基礎設施提供商已經(jīng)采用了 AI Workbench服務(wù),并看到了其提升最新一代多 GPU 能力的潛力。在實(shí)際用例中,Workbench 可以幫助用戶(hù)從單臺 PC 上的開(kāi)發(fā)轉向更大規模的環(huán)境,在所有軟件都保持不變的情況下幫助項目投入生產(chǎn)。|萬(wàn)億芯片老大,要用AI守擂此次,圍繞著(zhù)生成式 AI 和數字化時(shí)代的開(kāi)發(fā)和內容創(chuàng )作,英偉達還一口氣推出了多項的新產(chǎn)品和服務(wù),可以說(shuō)是涵蓋了生成式AI開(kāi)發(fā)的方方面面。在桌面AI工作站方面,推出了RTX 6000、RTX 5000、RTX 4500和RTX 4000四款新顯卡,旨在為全球專(zhuān)業(yè)人士提供最新的 AI圖形和實(shí)時(shí)渲染技術(shù)。并基于新GPU推出了一套一站式解決方案 RTX Workstation。針對 AI 訓練和推理、3D 設計和可視化、視頻處理和工業(yè)數字化等計算密集型應用的需求,推出了配備 Nvidia L40S GPU 的 Nvidia OVX 服務(wù)器,旨在加速多個(gè)行業(yè)的工作流程和服務(wù)。
Nvidia 推出了新的 RTX 工作站 GPU發(fā)布最新版本的企業(yè)軟件平臺 Nvidia AI Enterprise 4.0,同時(shí)引入用于構建和定制生成式 AI 基礎模型的端到端框架 Nvidia NeMo,旨在為企業(yè)提供在其運營(yíng)中集成和部署生成式 AI 模型的工具,但以安全的方式和穩定的 API 連接。推出了GPU 加速的軟件開(kāi)發(fā)套件和云原生微服務(wù) Maxine,讓專(zhuān)業(yè)人士、團隊和創(chuàng )作者能夠利用人工智能的力量并創(chuàng )造高質(zhì)量的音頻和視頻效果,從而改進(jìn)實(shí)時(shí)通信服務(wù)。此外Nvidia Research 還宣布推出人工智能驅動(dòng)的 3D 視頻技術(shù),在沉浸式通信領(lǐng)域取得進(jìn)展。隨著(zhù)英偉達一個(gè)接一個(gè)新產(chǎn)品和新服務(wù)的揭曉,我們似乎也看到生成式AI的生產(chǎn)力爆炸時(shí)代正在加速到來(lái)。在人工智能的驅動(dòng)下,英偉達今年的來(lái)收益和股價(jià)節節攀升,公司市值一度突破萬(wàn)億美元。但越是風(fēng)光,競爭對手就越是虎視眈眈。隨著(zhù)人工智能芯片荒的加劇,巨頭們都開(kāi)始加大投資、奮起直追。比如,就在今天的大會(huì )不久前,AMD剛剛發(fā)布了自己“大模型專(zhuān)用”的AI芯片MI300X,直接對標H100。此外,谷歌、亞馬遜、特斯拉等也都在設計自己的定制人工智能推理芯片。但目前來(lái)看,在越來(lái)越激烈的賽道上,跑在最前邊的英偉達絲毫沒(méi)有松懈。靠AI“翻身”的英偉達,顯然還想要乘著(zhù)AI的風(fēng)跑得更快、更遠。
*參考資料:
Nivida Technical Blog
注:封面圖和插圖均來(lái)自于英偉達官方,版權屬于原作者。如果不同意使用,請盡快聯(lián)系我們,我們會(huì )立即刪除。
END
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。