老黃贏(yíng)麻了 英偉達H100訂單排到24年
即使現在立即訂購,也要等2024年Q1甚至Q2才能用上。
這是與英偉達關(guān)系密切的云廠(chǎng)商CoreWeave對華爾街日報透露的最新消息。
從4月初開(kāi)始,供應就變得異常緊張。僅僅一周之內,預期交貨時(shí)間就從合理水平跳到了年底。
全球最大云廠(chǎng)商亞馬遜AWS也證實(shí)了這一消息,CEO Adam Selipsky近期表示:
A100和H100是最先進(jìn)的……即使對于A(yíng)WS來(lái)說(shuō)也很難獲得。
更早時(shí)候,馬斯克還在一場(chǎng)訪(fǎng)談節目中也說(shuō)過(guò):GPU現在比d品還難獲得。
如果找“黃?!辟I(mǎi),溢價(jià)高達25%。
如Ebay上的價(jià)格已從出廠(chǎng)價(jià)約36000美元漲到了45000美元,而且貨源稀少。
這種形勢下,國內的百度、字節、阿里、騰訊等大型科技公司也向英偉達下了總計50億美元的A800等芯片訂單。
其中只有10億美元的貨能今年內交付,另外80%也要等2024年才行。
那么現有高端GPU都賣(mài)給誰(shuí)了?這一波產(chǎn)能又是卡在了哪?
H100賣(mài)給誰(shuí),老黃說(shuō)了算
ChatGPT爆發(fā)以來(lái),擅長(cháng)訓練大模型的英偉達A100、H100成了香餑餑。
甚至H100已經(jīng)可以作為初創(chuàng )公司的一種資產(chǎn),找投資基金獲得抵押貸款。
OpenAI、Meta為代表的AI公司,亞馬遜、微軟為代表的云計算公司,私有云Coreweave和Lambda,以及所有想煉自家大模型的各類(lèi)科技公司,需求量都巨大。
然而賣(mài)給誰(shuí),基本是英偉達CEO黃仁勛說(shuō)了算。
據The Information消息,H100這么緊缺,英偉達把大量的新卡分配給了CoreWeave,對亞馬遜微軟等老牌云計算公司限量供應。
(英偉達還直接投資了CoreWeave。)
外界分析是因為這些老牌公司都在開(kāi)發(fā)自己的AI加速芯片、希望減少對英偉達的依賴(lài),那老黃也就成全他們。
老黃在英偉達內部還把控了公司日常運營(yíng)的方方面面,甚至包括“審查銷(xiāo)售代表準備對小型潛在客戶(hù)說(shuō)什么話(huà)”。
全公司約40名高管直接向老黃匯報,這比Meta小扎和微軟小納的直接下屬加起來(lái)還多。
一位英偉達前經(jīng)理透露,“在英偉達,黃仁勛實(shí)際上是每一款產(chǎn)品的首席產(chǎn)品官?!?/p>
前陣子,還傳出老黃干了一件夸張的事:要求一些小型云計算公司提供他們的客戶(hù)名單,想了解GPU的最終使用者是誰(shuí)。
外界分析,此舉將使英偉達更了解客戶(hù)對其產(chǎn)品的需求,也引起了對英偉達可能利用這些信息謀取額外利益的擔憂(yōu)。
也有人認為,還有一層原因是老黃想知道誰(shuí)真的在用卡,而誰(shuí)只是囤卡不用。
為什么英偉達和老黃現在有這么大的話(huà)語(yǔ)權?
主要是高端GPU供需太不平衡,根據GPU Utils網(wǎng)站的測算,H100缺口高達43萬(wàn)張。
作者Clay Pascal根據各種已知信息和傳言估計了AI行業(yè)各參與者近期還需要的H100數量。
AI公司方面:
OpenAI可能需要5萬(wàn)張H100來(lái)訓練GPT-5
Meta據說(shuō)需要10萬(wàn)
InflectionAI的2.2萬(wàn)張卡算力集群計劃已公布
主要AI初創(chuàng )公司如Anthropic、Character.ai、歐洲的MistraAI和HelsingAI需求各自在1萬(wàn)數量級。
云計算公司方面:
大型公有云里,亞馬遜、微軟、谷歌、甲骨文都按3萬(wàn)算,共12萬(wàn)
以CoreWeave和Lambda為代表的私有云加起來(lái)總共需要10萬(wàn)
加起來(lái)就是43.2萬(wàn)了。
這還沒(méi)算一些摩根大通、Two Sigma等也開(kāi)始部署自己算力集群的金融公司和其他行業(yè)參與者。
那么問(wèn)題來(lái)了,這么大的供應缺口,就不能多生產(chǎn)點(diǎn)嗎?
老黃也想啊,但是產(chǎn)能被卡住了。
產(chǎn)能這次卡在哪里?
其實(shí),臺積電已經(jīng)為英偉達調整過(guò)一次生產(chǎn)計劃了。
不過(guò)還是沒(méi)能填補上如此巨大的缺口。
英偉達DGX系統副總裁兼總經(jīng)理Charlie Boyle稱(chēng),這次并不是卡在晶圓,而是臺積電的CoWoS封裝技術(shù)產(chǎn)能遇到了瓶頸。
與英偉達搶臺積電產(chǎn)能的正是蘋(píng)果,要在9月發(fā)布會(huì )之前搞定下一代iPhone要用的A17芯片。
而臺積電方面近期表示,預計需要1.5年才能使封裝工藝積壓恢復正常。
CoWoS封裝技術(shù)是臺積電的看家本領(lǐng),臺積電之所以能擊敗三星成為蘋(píng)果的獨家芯片代工廠(chǎng)靠的就是它。
這項技術(shù)封裝出的產(chǎn)品性能高、可靠性強,H100能擁有3TB/s(甚至更高)的帶寬正是得益于此。
CoWoS全名叫Chip-on-Wafer-on-Substrate,是一種在晶圓層面上的芯片集成技術(shù)。
這項技術(shù)可以將多個(gè)芯片封裝到厚度僅有100μm的硅中介層上。
據介紹,下一代中介層面積將達到6倍reticle,也就是約5000mm?。
目前為止,除了臺積電,沒(méi)有哪家廠(chǎng)商擁有這個(gè)水平的封裝能力。
雖然CoWoS的確強悍,但沒(méi)有它就不行嗎?其他廠(chǎng)商能不能代工呢?
先不說(shuō)老黃已經(jīng)表示過(guò)“不考慮新增第二家H100代工廠(chǎng)”。
從現實(shí)上看,可能也真的不行。
英偉達此前曾和三星有過(guò)合作,但后者從未給英偉達生產(chǎn)過(guò)H100系列產(chǎn)品,甚至其他5nm制程的芯片。
據此有人推測,三星的技術(shù)水平可能無(wú)法滿(mǎn)足英偉達對尖端GPU的工藝需求。
至于英特爾……他們的5nm產(chǎn)品好像還遲遲沒(méi)有問(wèn)世。
既然讓老黃換生產(chǎn)廠(chǎng)家行不通,那用戶(hù)直接改用AMD怎么樣?
AMD,Yes?
如果單論性能的話(huà),AMD倒的確是慢慢追上來(lái)了。
AMD最新推出的MI300X,擁有192GB的HBM3內存、5.2TB/s的帶寬,可運行800億參數模型。
而英偉達剛剛發(fā)布的DGX GH200,內存為141GB的HBM3e,帶寬則為5TB/s。
但這并不意味著(zhù)AMD能馬上填補N卡的空缺——
英偉達真正的“護城河”,在于CUDA平臺。
CUDA已經(jīng)建立起一套完整的開(kāi)發(fā)生態(tài),意味著(zhù)用戶(hù)要是購買(mǎi)AMD產(chǎn)品,需要更長(cháng)時(shí)間來(lái)進(jìn)行調試。
一名某私有云公司的高管表示,沒(méi)人敢冒險花3億美元實(shí)驗部署10000個(gè)AMD GPU。
這名高管認為,開(kāi)發(fā)調試的周期可能至少需要兩個(gè)月。
在A(yíng)I產(chǎn)品飛速更新?lián)Q代的大背景下,兩個(gè)月的空檔期對任何一家廠(chǎng)商來(lái)說(shuō)可能都是致命的。
不過(guò)微軟倒是向AMD伸出了橄欖枝。
此前有傳聞稱(chēng) ,微軟準備和AMD共同開(kāi)發(fā)代號為“雅典娜”的AI芯片。
而更早之前,MI200發(fā)布時(shí),微軟第一個(gè)宣布采購,并在其云平臺Azure上部署。
比如前一陣MSRA的新大模型基礎架構RetNet就是在512張AMD MI200上訓練的。
在英偉達占據幾乎整個(gè)AI市場(chǎng)的格局下,可能需要有人帶頭沖鋒,先整個(gè)大型AMD算力集群打樣,才有人敢于跟進(jìn)。
不過(guò)短時(shí)間內,英偉達H100、A100還是最主流的選擇。
One More Thing
前一陣蘋(píng)果發(fā)布最高支持192GB內存新款M2 Ultra芯片的時(shí)候,還有不少從業(yè)者暢享過(guò)用它來(lái)微調大模型。
畢竟蘋(píng)果M系列芯片的內存顯存是統一的,192GB內存就是192GB顯存,可是80GB H100的2.4倍,又或者24GB RTX4090的8倍。
然鵝,有人真的把這臺機器買(mǎi)到手后,實(shí)際測試訓練速度還不如英偉達RTX3080TI,微調都不劃算,訓練就更別想了。
畢竟M系列芯片的算力部分不是專(zhuān)門(mén)針對AI計算優(yōu)化的,光大顯存也沒(méi)用。
煉大模型,看來(lái)主要還是得靠H100,而H100又求之不得。
面對這種情況,網(wǎng)絡(luò )上甚至流傳著(zhù)一首魔性的“GPU之歌”。
很洗腦,慎入。
評論