谷歌對IBM說(shuō):大科技巨頭如何擁抱Nvidia的新硬件和軟件服務(wù)
Nvidia已經(jīng)全力以赴,在圣何塞正在進(jìn)行的GTC大會(huì )上推動(dòng)計算的邊界。
本文引用地址:http://dyxdggzs.com/article/202403/456629.htm首席執行官黃仁勛穿著(zhù)一件黑色皮夾克,在他的主題演講中向一群聚集在一起的人群(這個(gè)活動(dòng)看起來(lái)更像是一場(chǎng)音樂(lè )會(huì )而不是一場(chǎng)會(huì )議)宣布了備受期待的GB200 Grace Blackwell超級芯片,承諾為大型語(yǔ)言模型(LLM)推理工作負載提供多達30倍的性能提升。他還分享了汽車(chē)、機器人、全息宇宙和醫療保健領(lǐng)域的一些顯著(zhù)進(jìn)展,使互聯(lián)網(wǎng)充斥著(zhù)所有與Nvidia有關(guān)的東西。
然而,GTC永遠不完整,沒(méi)有行業(yè)合作伙伴關(guān)系。Nvidia分享了如何通過(guò)將其新宣布的人工智能計算基礎設施、軟件和服務(wù)納入其技術(shù)棧,與幾家行業(yè)巨頭一起發(fā)展的情況。以下是主要合作伙伴關(guān)系的概述。
AWSNvidia表示,AWS將在EC2實(shí)例上提供其新的Blackwell平臺,該平臺配備GB200 NVL72,配備72個(gè)Blackwell GPU和36個(gè)Grace CPU。這將使客戶(hù)能夠以比以前的Nvidia GPU更快、更大規模和更低成本的方式構建和運行多萬(wàn)億參數LLM的實(shí)時(shí)推理。這兩家公司還宣布,它們將20,736個(gè)GB200超級芯片帶到Project Ceiba——一個(gè)專(zhuān)門(mén)在A(yíng)WS上構建的AI超級計算機——并與Nvidia NIM推斷微服務(wù)集成的Amazon SageMaker。
谷歌云與亞馬遜一樣,谷歌也宣布將Nvidia的Grace Blackwell平臺和NIM微服務(wù)引入其云基礎架構。該公司還表示,將在Nvidia H100 GPU上為JAX提供支持,這是一個(gè)用于高性能LLM訓練的Python本地框架,并通過(guò)Google Kubernetes Engine(GKE)和Google Cloud HPC工具包使部署Nvidia NeMo框架在其平臺上更加容易。
此外,Vertex AI現在將支持由NVIDIA H100 GPU驅動(dòng)的Google Cloud A3 VM和由NVIDIA L4 Tensor Core GPU驅動(dòng)的G2 VM。
微軟微軟還確認了將NIM微服務(wù)和Grace Blackwell添加到Azure的計劃。然而,這項超級芯片的合作伙伴關(guān)系還包括Nvidia的新Quantum-X800 InfiniBand網(wǎng)絡(luò )平臺。由薩蒂亞·納德拉領(lǐng)導的公司還宣布,DGX Cloud將與Microsoft Fabric進(jìn)行本地集成,以簡(jiǎn)化自定義AI模型的開(kāi)發(fā),并在A(yíng)zure Power平臺上提供新推出的Omniverse Cloud API。在醫療保健領(lǐng)域,微軟表示Azure將利用Nvidia的Clara微服務(wù)套件和DGX Cloud,幫助醫療保健提供商、制藥和生物技術(shù)公司以及醫療設備開(kāi)發(fā)人員快速在臨床研究和護理交付方面進(jìn)行創(chuàng )新。
甲骨文甲骨文表示,它計劃在OCI Supercluster和OCI Compute實(shí)例中利用Grace Blackwell計算平臺,后者將采用Nvidia GB200超級芯片和B200張量核心GPU。它還將出現在OCI上的Nvidia DGX Cloud上。除此之外,甲骨文表示,Nvidia NIM和CUDA-X微服務(wù),包括用于RAG推理部署的NeMo Retriever,也將幫助OCI客戶(hù)為其生成式人工智能應用程序帶來(lái)更多的洞察力和準確性。
SAPSAP正在與Nvidia合作,將生成式人工智能整合到其云解決方案中,包括最新版本的SAP Datasphere、SAP Business Technology Platform和RISE with SAP。該公司還表示,計劃使用Nvidia的生成式人工智能鑄造服務(wù)在SAP BTP中構建更多的生成式人工智能功能,該服務(wù)包括DGX Cloud AI超級計算、Nvidia AI Enterprise軟件和NVIDIA AI Foundation模型。
IBM正在計劃將其技術(shù)和行業(yè)專(zhuān)業(yè)知識與Nvidia的AI企業(yè)軟件堆棧相結合,包括新的NIM微服務(wù)和Omniverse技術(shù),以幫助客戶(hù)解決復雜的業(yè)務(wù)挑戰。IBM表示,這將加速客戶(hù)的AI工作流程,增強用例到模型的優(yōu)化,并開(kāi)發(fā)針對業(yè)務(wù)和行業(yè)的特定AI用例。該公司已經(jīng)在使用Isaac Sim和Omniverse構建并交付數字孿生應用程序,用于供應鏈和制造業(yè)。
至于Snowflake,數據云公司Snowflake擴展了其先前與Nvidia宣布的合作伙伴關(guān)系,以與NeMo Retriever集成。這種生成式AI微服務(wù)將自定義LLMs連接到企業(yè)數據,并允許公司的客戶(hù)通過(guò)Snowflake Cortex構建的聊天機器人應用程序的性能和可伸縮性。此合作還包括Nvidia TensorRT軟件,該軟件為深度學(xué)習推斷應用程序提供低延遲和高吞吐量。
除了Snowflake之外,數據平臺提供商Box、Dataloop、Cloudera、Cohesity、Datastax和NetApp還宣布計劃使用Nvidia微服務(wù),包括全新的NIM技術(shù),以幫助客戶(hù)優(yōu)化RAG管道并將其專(zhuān)有數據集成到生成式AI應用程序中。
評論