英偉達,遭遇反壟斷調查
據知情人士透露,英偉達即將因涉嫌反競爭行為而受到法國反壟斷監管機構的指控,這將是第一家針對這家計算機芯片制造商采取行動(dòng)的執法機構。
去年 9 月,法國對顯卡行業(yè)進(jìn)行了突擊檢查,消息人士稱(chēng),針對 Nvidia 的突擊檢查就是法國所謂的異議聲明或指控書(shū)。此次突擊檢查是對云計算進(jìn)行更廣泛調查的結果。
作為全球最大的人工智能和計算機圖形芯片制造商,在生成式人工智能應用程序 ChatGPT 發(fā)布后,其芯片的需求猛增,引發(fā)了大西洋兩岸的監管審查。
法國監管機構向企業(yè)發(fā)布了部分反對聲明,但并非全部。英偉達拒絕置評。該公司在去年的監管文件中表示,歐盟、中國和法國的監管機構曾要求提供有關(guān)其顯卡的信息。
其他知情人士表示,由于法國當局正在調查英偉達,歐盟委員會(huì )目前不太可能擴大初步審查。
法國監管機構在上周五發(fā)布的關(guān)于生成人工智能競爭的報告中指出了芯片供應商濫用的風(fēng)險。
它對該行業(yè)對 Nvidia 的 CUDA 芯片編程軟件的依賴(lài)表示擔憂(yōu),該軟件是唯一與加速計算必不可少的GPU 100% 兼容的系統。
它還提到了對 Nvidia 最近對 CoreWeave 等專(zhuān)注于人工智能的云服務(wù)提供商的投資感到不安。
如果違反法國反壟斷規定,公司將面臨高達其全球年營(yíng)業(yè)額 10% 的罰款,不過(guò)它們也可以做出讓步以避免受到處罰。
一位知情人士向路透社透露,美國司法部正牽頭調查英偉達,并與聯(lián)邦貿易委員會(huì )分擔對大型科技公司的審查。
Nvidia 經(jīng)濟學(xué):在 GPU 上每花費 1 美元,就能賺取 5 至 7 美元
Nvidia 表示,在四年內,公司每投資 1 美元購買(mǎi) GPU,就可以賺取 5 到 7 美元。Nvidia 超大規模和 HPC 業(yè)務(wù)副總裁兼總經(jīng)理 Ian Buck 本月在美國銀行證券 2024 年全球技術(shù)大會(huì )上表示,客戶(hù)正在投資數十億美元購買(mǎi)新的 Nvidia 硬件,以跟上更新的 AI 模型,從而提高收入和生產(chǎn)力。
競相建設大型數據中心的公司將特別受益,并在數據中心四到五年的使用壽命內獲得豐厚的回報。
Buck 表示:“云提供商在購買(mǎi) GPU 上花費的每一美元,四年內都能收回 5 美元?!?/p>
Buck表示,推理甚至更有利可圖。
“這里的經(jīng)濟效益甚至更好:每花費 1 美元,在同樣的時(shí)間段內就能產(chǎn)生 7 美元的營(yíng)業(yè)額,并且這個(gè)數字還在增長(cháng),”Buck說(shuō)。
圍繞 Llama、Mistral 或 Gemma 的 AI 推理正在不斷發(fā)展,并由代幣提供服務(wù)。Nvidia 正在將開(kāi)源 AI 模型打包到名為 Nvidia 推理微服務(wù) (NIM) 的容器中。
Nvidia 表示,其今年早些時(shí)候發(fā)布的 Blackwell GPU 針對推理進(jìn)行了優(yōu)化。該 GPU 支持 FP4 和 FP6 數據類(lèi)型,在運行低強度 AI 工作負載時(shí)可提高能效。
云提供商提前兩年就開(kāi)始規劃數據中心,并希望了解未來(lái)的 GPU 架構會(huì )是什么樣子。
Nvidia 已分享了 Rubin(在 Computex 上發(fā)布的一款新 GPU)的計劃,以便云提供商可以為該 GPU 準備數據中心。Rubin 將于 2026 年上市,并取代將于 2025 年上市的 Blackwell 和 Blackwell Ultra。
“對我們來(lái)說(shuō),做到這一點(diǎn)真的很重要——數據中心不是憑空而來(lái)的,它們是大型建設項目。他們需要了解‘布萊克威爾數據中心會(huì )是什么樣子,它與霍珀數據中心有何不同?’”Buck說(shuō)。
Blackwell 提供了一個(gè)轉向更密集的計算形式和使用液體冷卻等技術(shù)的機會(huì ),因為空氣冷卻效率不高。
Nvidia 每年都會(huì )推出一款新的 GPU,這有助于公司跟上 AI 發(fā)展的步伐,進(jìn)而幫助客戶(hù)規劃產(chǎn)品和 AI 戰略。
Buck說(shuō):“Rubin已經(jīng)與那些最大的客戶(hù)交談了一段時(shí)間——他們知道我們的目標和時(shí)間表?!?/p>
AI 的速度和能力與硬件直接相關(guān)。在 GPU 上投入的資金越多,公司就能訓練出更大的模型,從而帶來(lái)更多收入。
微軟和谷歌將自己的未來(lái)寄托在人工智能上,并競相開(kāi)發(fā)更強大的大型語(yǔ)言模型。微軟嚴重依賴(lài)新的 GPU 來(lái)支撐其 GPT-4 后端,而谷歌則依賴(lài)其 TPU 來(lái)運行其人工智能基礎設施。
Nvidia 目前正在生產(chǎn) Blackwell GPU,樣品很快就會(huì )發(fā)布。但客戶(hù)可以預料,首批 GPU(將于年底發(fā)貨)將供不應求。
“每一項新技術(shù)的轉型都會(huì )帶來(lái)……供需方面的挑戰。我們在 Hopper 上就經(jīng)歷過(guò)這種情況,Blackwell 的產(chǎn)能提升也將面臨類(lèi)似的供需限制……今年年底到明年,”Buck 說(shuō)道。
Buck 表示,數據中心公司正在淘汰 CPU 基礎設施,為更多 GPU 騰出空間。Hopper GPU 被保留,而基于 Ampere 和 Volta 架構的舊 GPU 則被轉售。
Nvidia 將保留多個(gè)級別的 GPU,隨著(zhù) Blackwell 的不斷發(fā)展,Hopper 將成為其主流 AI GPU。Nvidia 已經(jīng)進(jìn)行了多項硬件和軟件改進(jìn),以提高 Hopper 的性能。
所有云提供商都將提供 Blackwell GPU 和服務(wù)器。
Buck 表示,GPT-4 模型大約有 1.8 萬(wàn)億個(gè)參數,由于 AI 擴展尚未達到極限,參數數量還將繼續增長(cháng)。
“人類(lèi)大腦的規模為 1000 億到 150 萬(wàn)億,具體數量取決于個(gè)人,取決于大腦中的神經(jīng)元和連接。目前,人工智能的規模約為 2 萬(wàn)億……我們尚未進(jìn)行推理,”Buck說(shuō)道。
將會(huì )有一個(gè)包含數萬(wàn)億個(gè)參數的大型模型,在此基礎上構建更小、更專(zhuān)業(yè)的模型。參數數量對 Nvidia 有利,因為它有助于銷(xiāo)售更多 GPU。
Nvidia 正在調整其 GPU 架構,從原來(lái)的基礎模型方法轉向混合專(zhuān)家模型。
專(zhuān)家混合涉及多個(gè)神經(jīng)網(wǎng)絡(luò )通過(guò)相互參考來(lái)驗證答案。
Buck說(shuō):“1.8 萬(wàn)億參數的 GPT 模型有 16 個(gè)不同的神經(jīng)網(wǎng)絡(luò ),它們都試圖回答各自層的部分問(wèn)題,然后商討、會(huì )面并決定正確答案是什么?!?/p>
即將推出的 GB200 NVL72 機架式服務(wù)器配備 72 個(gè) Blackwell GPU 和 36 個(gè) Grace CPU,專(zhuān)為混合專(zhuān)家模型而設計。多個(gè) GPU 和 CPU 相互連接,從而支持混合專(zhuān)家模型。
“這些家伙都可以相互通信,而不會(huì )在 IO 上受阻。這種演變在模型架構中不斷發(fā)生,”Buck 說(shuō)。
Nvidia 首席執行官黃仁勛本月在 HPE 的 Discover 大會(huì )上發(fā)表了一些激烈的言論,呼吁人們購買(mǎi)更多該公司的硬件和軟件。
Nvidia 和 HPE 宣布推出一系列新產(chǎn)品,其名稱(chēng)簡(jiǎn)單明了,為“Nvidia AI Computing by HPE”。
“我們設計了小號、中號、大號和特大號,你可以選擇。而且正如你所知,你買(mǎi)得越多,省得越多,”黃在《發(fā)現》雜志的舞臺上說(shuō)道。
黃仁勛今年早些時(shí)候還發(fā)表了另一條備受爭議的言論,當時(shí)他說(shuō)未來(lái)的程序員不需要學(xué)習如何編寫(xiě)代碼。但在 Nvidia GPU 上加載 AI 模型需要了解命令行和腳本,以創(chuàng )建和運行 AI 環(huán)境。
Nvidia 的專(zhuān)有言論和在人工智能市場(chǎng)的完全主導地位使其成為反壟斷調查的目標。
當 Buck 試圖淡化人們對 CUDA 的擔憂(yōu)時(shí),他必須小心謹慎,他表示“護城河是一個(gè)復雜的詞”。
兩位高管都表示,CUDA 是其 GPU 的必備軟件——要最大限度地發(fā)揮 GPU 的性能,就需要 CUDA。開(kāi)源軟件可以與 Nvidia GPU 配合使用,但無(wú)法提供 CUDA 庫和運行時(shí)的強大功能。
向后兼容性和連續性是 Nvidia 的獨特優(yōu)勢。對 Nvidia 的 AI 模型和軟件的支持可以延續到下一代 GPU。但對于英特爾的 Gaudi 等 ASIC 則不然,它們必須針對每個(gè)新模型重新進(jìn)行調整。
來(lái)源:半導體行業(yè)觀(guān)察
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。