美光表示24年和25年大部分時(shí)間的高帶寬內存已售罄
美光目前在高帶寬內存市場(chǎng)上處于劣勢,但看起來(lái)情況正在迅速變化,因為該公司表示其 HBM3E 內存供應已售罄,并分配到 2025 年的大部分時(shí)間。目前,美光表示其HBM3E將出現在英偉達的H200 GPU中,用于人工智能和高性能計算,因此美光似乎準備搶占相當大的HBM市場(chǎng)份額。
圖片來(lái)源:美光
“我們的 HBM 在 2024 日歷上已經(jīng)售罄,我們 2025 年的絕大部分供應已經(jīng)分配完畢,”美光首席執行官 Sanjay Mehrotra 在本周為公司財報電話(huà)會(huì )議準備的講話(huà)中表示?!拔覀兝^續預計 HBM 比特份額相當于 2025 年某個(gè)時(shí)候的整體 DRAM 比特份額?!?/p>
美光最初的 HBM3E 堆棧是 24 GB 8Hi 模塊,數據傳輸速率為 9.2 GT/s,每臺設備的峰值內存帶寬超過(guò) 1.2 TB/s。其中六個(gè)堆棧將用于 Nvidia 的 H200 GPU for AI 和 HPC,總共可實(shí)現 141 GB 的高帶寬內存。由于美光是第一家開(kāi)始商業(yè)化出貨HBM3E的公司,因此它將出售一船HBM3E封裝。
Mehrotra表示:“我們有望在2024財年從HBM獲得數億美元的收入,并預計從第三財季開(kāi)始,HBM的收入將增加我們的DRAM和整體毛利率。
美光負責人表示,它已經(jīng)開(kāi)始對其 12-Hi HBM3E 立方體進(jìn)行采樣,該立方體將內存容量提高了 50%,從而能夠對更大的語(yǔ)言模型進(jìn)行 AI 訓練。這些 36 GB HBM3E 立方體將用于下一代 AI 處理器,其產(chǎn)量將在 2025 年增加。
由于 HBM 的制造涉及專(zhuān)用 DRAM 的生產(chǎn),因此 HBM 的產(chǎn)能提升將極大地影響美光為主流應用制造 DRAM IC 的能力。
“HBM 產(chǎn)量的增加將限制非 HBM 產(chǎn)品的供應增長(cháng),”Mehrotra 說(shuō)?!皬恼麄€(gè)行業(yè)來(lái)看,HBM3E消耗的晶圓供應量大約是DDR5的三倍,可以在同一技術(shù)節點(diǎn)中產(chǎn)生給定數量的比特?!?/p>
評論