SK海力士開(kāi)發(fā)出全球最高規格HBM3E,向英偉達提供樣品
早在 6 月,就有報道稱(chēng) SK 海力士已收到英偉達的下一代 HBM3E DRAM 樣品請求,當 英偉達宣布其采用增強型 HBM3E DRAM 的 GH200 GPU(每芯片可提供高達 5 TB/s 的帶寬)時(shí),這一請求成為現實(shí)。
本文引用地址:http://dyxdggzs.com/article/202308/449806.htmSK 海力士公司今天宣布成功開(kāi)發(fā)出 HBM3E,這是目前用于人工智能應用的下一代最高規格 DRAM,并表示客戶(hù)的樣品評估正在進(jìn)行中。
該公司表示,HBM3E(HBM3 的擴展版本)的成功開(kāi)發(fā)得益于其作為業(yè)界唯一的 HBM3 大規模供應商的經(jīng)驗。憑借作為業(yè)界最大 HBM 產(chǎn)品供應商的經(jīng)驗和量產(chǎn)準備水平,SK 海力士計劃在明年上半年量產(chǎn) HBM3E,鞏固其在 AI 內存市場(chǎng)無(wú)與倫比的領(lǐng)導地位。
該公司表示,最新產(chǎn)品不僅滿(mǎn)足業(yè)界最高的速度標準(AI 內存產(chǎn)品的關(guān)鍵規格),而且所有類(lèi)別都包括容量、散熱和用戶(hù)友好性。
在速度方面,HBM3E 每秒可處理高達 1.15 TB 的數據,相當于每秒處理 230 多部 5GB 大小的全高清電影。
此外,該產(chǎn)品在最新產(chǎn)品上采用先進(jìn)質(zhì)量回流成型底部填充(MR-MUF)尖端技術(shù),散熱性能提高了 10%。它還提供向后兼容性,甚至可以在為 HBM3 準備的系統上采用最新產(chǎn)品,而無(wú)需修改設計或結構。
MR-MUF 是指將芯片附著(zhù)到電路上并在堆疊芯片時(shí)用液體材料填充芯片之間的空間而不是鋪設薄膜以提高效率和散熱的工藝。向后兼容性是無(wú)需修改設計即可實(shí)現新舊系統之間的互操作性的能力,特別是在信息技術(shù)和計算領(lǐng)域。具有向后兼容性的新型內存產(chǎn)品允許繼續使用現有的 CPU 和 GPU,而無(wú)需修改設計。
英偉達 Hyperscale 和 HPC 部門(mén)副總裁伊恩·巴克(Ian Buck)表示:「英偉達為了最先進(jìn)加速計算解決方案 (Accelerated Computing Solutions) 所應用的 HBM,與 SK 海力士進(jìn)行了長(cháng)期的合作。為展示新一代 AI 計算,期待兩家公司在 HBM3E 領(lǐng)域的持續合作?!?/span>
SK 海力士 DRAM 商品企劃擔當副社長(cháng)柳成洙表示:「公司通過(guò) HBM3E,在 AI 技術(shù)發(fā)展的同時(shí)備受矚目的 HBM 市場(chǎng)中有效提升了產(chǎn)品陣容的完成度,并進(jìn)一步夯實(shí)了市場(chǎng)主導權。今后隨著(zhù)高附加值產(chǎn)品 HBM 的供應比重持續加大,經(jīng)營(yíng)業(yè)績(jì)反彈趨勢也將隨之加速?!?/span>
根據 TrendForce 集邦咨詢(xún)調查顯示,為順應 AI 加速器芯片需求演進(jìn),各原廠(chǎng)計劃于 2024 年推出新產(chǎn)品 HBM3E,預期 HBM3 與 HBM3E 將成為明年市場(chǎng)主流。HBM3E 將由 24Gb mono die 堆棧,在 8 層 (8Hi) 的基礎下,單顆 HBM3E 容量將一口氣提升至 24GB。除了英偉達外,Google 與 AWS 正著(zhù)手研發(fā)次世代自研 AI 加速芯片,將采用 HBM3 或 HBM3E。
HBM3 平均銷(xiāo)售單價(jià)高,2024 年 HBM 整體營(yíng)收將因此大幅提升。觀(guān)察 HBM 供需變化,2022 年供給無(wú)虞,2023 年受到 AI 需求突爆式增長(cháng)導致客戶(hù)的預先加單,即便原廠(chǎng)擴大產(chǎn)能但仍無(wú)法完全滿(mǎn)足客戶(hù)需求。展望 2024 年,TrendForce 集邦咨詢(xún)認為,基于各原廠(chǎng)積極擴產(chǎn)的策略,HBM 供需比(Sufficiency Ratio)有望獲改善,預估將從 2023 年的-2.4%,轉為 0.6%。
8 月 8 日,英偉達創(chuàng )始人兼 CEO 黃仁勛在計算機圖形年會(huì ) SIGGRAPH 上發(fā)布了 HBM3E 內存新一代 GH200 Grace Hopper 超級芯片。這款芯片被黃仁勛稱(chēng)為「加速計算和生成式 AI 時(shí)代的處理器」,旨在用于任何大型語(yǔ)言模型,以降低推理成本。
與今年 5 月發(fā)布的 GH200 不同,新一代 GH200 芯片搭載了全球首款 HBM3E 內存,內存容量和帶寬都有顯著(zhù)提高,專(zhuān)為加速計算和生成式 AI 時(shí)代而設計。
新版 GH200 芯片平臺基于 72 核 Grace CPU,配備 480GB ECC LPDDR5X 內存以及 GH100 計算 GPU。此外,它還搭配著(zhù) 141GB 的 HBM3E 內存,分為六個(gè) 24GB 的堆棧,并采用了 6,144 位的內存接口。盡管實(shí)際上英偉達安裝了 144GB 的內存,但可用的內存容量為 141GB。
借助全球最快的 HBM3E 內存,這款芯片的內存容量高達 141GB,帶寬每秒可達到 5TB。每個(gè) GPU 的容量比英偉達 H100 GPU 多出 1.7 倍,帶寬比 H100 高 1.55 倍。
英偉達強調,新版 GH200 Grace Hopper 芯片使用了與原版相同的 Grace CPU 和 GH100 GPU 芯片,因此無(wú)需推出新的軟件版本或步進(jìn)。原版 GH200 和升級版 GH200 將共存于市場(chǎng),后者將以更高的價(jià)格銷(xiāo)售,因為它具備更先進(jìn)的內存技術(shù)帶來(lái)的更高性能。
英偉達表示,新版 GH200 旨在處理世界上最復雜的生成式 AI 工作負載,包括大型語(yǔ)言模型、推薦系統和矢量數據庫,并將提供多種配置。
評論