美光、SK海力士今年HBM已售罄
隨著(zhù)生成式人工智能(AI)市場(chǎng)的爆發(fā),也帶動(dòng)了 AI 芯片需求的暴漲。AI 芯片龍頭英偉達業(yè)績(jì)更是持續飆升,最新公布的第四財季財報顯示,營(yíng)收同比暴漲 265% 至 221 億美元,凈利潤同比暴漲 769% 至 122.85 億美元,持續突破歷史記錄,推動(dòng)英偉達市值突破 2 萬(wàn)億美元。
本文引用地址:http://dyxdggzs.com/article/202402/455734.htm隨著(zhù) AI 芯片需求持續大漲,作為目前 AI 芯片當中的極為關(guān)鍵的器件,HBM(高帶寬內存)也是持續供不應求,存儲大廠(chǎng)積極瞄準 HBM 擴產(chǎn)。
其中,三星電子從 2023 年四季度開(kāi)始擴大 HBM3 的供應。此前 2023 年四季度三星內部消息顯示,已經(jīng)向客戶(hù)提供了下一代 HBM3E 的 8 層堆疊樣品,并計劃在今年上半年開(kāi)始量產(chǎn)。到下半年,其占比預計將達到 90% 左右。負責三星美國半導體業(yè)務(wù)的執行副總裁 Han Jin-man 則在今年 CES 2024 上表示,三星今年的 HBM 芯片產(chǎn)量將比去年提高 2.5 倍,明年還將繼續提高 2 倍。
三星官方還透露,公司計劃在今年第四季度之前,將 HBM 的最高產(chǎn)量提高到每月 15 萬(wàn)至 17 萬(wàn)件,以此來(lái)爭奪 2024 年的 HBM 市場(chǎng)。此前三星電子斥資 105 億韓元收購了三星顯示位于韓國天安市的工廠(chǎng)和設備,以擴大 HBM 產(chǎn)能,同時(shí)還計劃投資 7000 億至 1 萬(wàn)億韓元新建封裝線(xiàn)。
去年 12 月,美光 CEO Sanjay Mehrotra 對外透露,得益于生成式 AI 的火爆,推動(dòng)了云端高性能 AI 芯片對于高帶寬內存的旺盛需求,美光 2024 年的 HBM 產(chǎn)能預計已全部售罄。
美光指出,專(zhuān)為 AI、超級計算機設計的 HBM3E 預計 2024 年初量產(chǎn),有望于 2024 會(huì )計年度創(chuàng )造數億美元的營(yíng)收。Mehrotra 對分析師表示,「2024 年 1~12 月,美光 HBM 預估全數售罄」。
美光也相信,終端能執行 AI 任務(wù)的 PC、移動(dòng)設備,對內存芯片來(lái)說(shuō)蘊藏極大潛質(zhì)。
Mehrotra 預測,PC 出貨量在連兩年出現雙位數跌幅后,有望 2024 年成長(cháng) 1%~5%。他相信,PC 制造商 2024 下半年擴產(chǎn) AI PC,這些 PC 每臺需要額外 4~8Gb DRAM,固態(tài)硬盤(pán)(SSD)需求也會(huì )上揚。
Mehrotra 還表示,長(cháng)期而言,許多熱門(mén)生成式 AI 程序的主戰場(chǎng)會(huì )是智能手機,美光的產(chǎn)品組合有望抓住這次內存及儲存市場(chǎng)潛藏的機會(huì )。美光計劃增加 2024 會(huì )計年度的資本支出,但高層承諾會(huì )「極度節制」(extremely disciplined)。
繼此前美光宣布今年 HBM 產(chǎn)能全部售罄之后,最新的消息顯示,SK 海力士今年的 HBM 產(chǎn)能也已經(jīng)全部售罄。
雖然整個(gè) 2023 年全球半導體市場(chǎng)遭遇了「寒流」,特別是存儲芯片市場(chǎng)更是下滑嚴重。但是,受益于生成式 AI 帶來(lái)的需求,面向 AI 應用的 DRAM 依然保持了快速的增長(cháng)。
SK 海力士在 2023 年度財報當中就曾表示,2023 年在 DRAM 方面,公司以引領(lǐng)市場(chǎng)的技術(shù)實(shí)力積極應對了客戶(hù)需求,公司主力產(chǎn)品 DDR5 DRAM 和 HBM3 的營(yíng)收較 2022 年分別成長(cháng) 4 倍和 5 倍以上。
近日,SK 海力士副總裁 Kim Ki-tae(金基泰)在一篇博文中表示,今年公司的 HBM 已經(jīng)售罄,已開(kāi)始為 2025 年做準備。雖然外部不穩定因素依然存在,但今年內存半導體行業(yè)已開(kāi)始呈現上升趨勢。全球大型科技客戶(hù)對產(chǎn)品的需求正在復蘇,并且隨著(zhù)人工智能使用領(lǐng)域的擴大,包括配備自己的人工智能的設備,如個(gè)人電腦和智能手機,對 DDR5、LPDDR5T 以及 HBM3E 等產(chǎn)品的需求預計會(huì )增加。
據悉,英偉達和 AMD 的下一代人工智能 GPU 預計將主要搭載 HBM3 內存。例如,H100 是第一款支持 PCIe 5.0 標準的 GPU,也是第一款采用 HBM3 的 GPU,最多支持六顆 HBM3,帶寬為 3TB/s,是 A100 采用 HBM2E 的 1.5 倍,默認顯存容量為 80GB。
2023 年 11 月英偉達發(fā)布了新一代 AI GPU 芯片 H200,以及搭載這款 GPU 的 AI 服務(wù)器平臺 HGX H200 等產(chǎn)品。這款 GPU 是 H100 的升級款,依舊采用 Hopper 架構、臺積電 4nm 制程工藝,根據英偉達官網(wǎng),H200 的 GPU 芯片沒(méi)有升級,核心數、頻率沒(méi)有變化,主要的升級便是首次搭載 HBM3e 顯存,并且容量從 80GB 提升至 141GB。
得益于新升級的 HBM3e 芯片,H200 的顯存帶寬可達 4.8TB/s,比 H100 的 3.35TB/s 提升了 43%。不過(guò)這遠沒(méi)有達到 HBM3e 的上限,海外分析人士稱(chēng)英偉達有意降低 HBM3e 的速度,以追求穩定。如果與傳統 x86 服務(wù)器相比,H200 的內存性能最高可達 110 倍。
AMD 的 MI300 也搭配 HBM3,其中,MI300A 容量與前一代相同為 128GB,更高端 MI300X 則達 192GB,提升了 50%。AMD 稱(chēng),MI300X 提供的 HBM 密度最高是英偉達 AI 芯片 H100 的 2.4 倍,其 HBM 帶寬最高是 H100 的 1.6 倍。這意味著(zhù),AMD 的芯片可以運行比英偉達芯片更大的模型。
在 HBM 盛行的當下,沒(méi)有一家存儲廠(chǎng)商能夠忍住不分一杯羹。
評論