<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > AI服務(wù)器需求強勁,HBM龍頭SK海力士今年市占率或達53%

AI服務(wù)器需求強勁,HBM龍頭SK海力士今年市占率或達53%

發(fā)布人:芯智訊 時(shí)間:2023-04-20 來(lái)源:工程師 發(fā)布文章

4月18日消息,隨著(zhù)以ChatGPT為代表的生成式AI的持續火爆,帶動(dòng)了AI服務(wù)器出貨量的持續增長(cháng),這也使得的HBM(High Bandwidth Memory,高帶寬存儲器)的需求大漲。

NVIDIA定義的DL / ML型AI服務(wù)器平均每臺均需搭載4張或8張高階顯卡,搭配兩顆主流型號x86服務(wù)器CPU,主要采購商來(lái)自美系云服務(wù)廠(chǎng)商,包括Google、AWS、Meta與微軟等。據TrendForce統計,2022年高階搭載GPGPU的服務(wù)器出貨量年增約9%,近80%出貨量集中在全球頭部的八大云服務(wù)業(yè)者。展望2023年,微軟、Meta、百度與字節跳動(dòng)相繼推出基于生成式AI衍生產(chǎn)品服務(wù)而積極加單,今年AI服務(wù)器出貨量年增長(cháng)率有望達到15.4%,2023~2027年AI服務(wù)器出貨量年復合增長(cháng)率約12.2%。

隨著(zhù)AI服務(wù)器需求的增長(cháng),也帶動(dòng)了相關(guān)存儲芯片需求的增長(cháng)。目前,服務(wù)器DRAM普遍規格約500~600GB,AI服務(wù)器的單條模組多采用64~128GB容量,單個(gè)AI服務(wù)器的平均容量可達1.2~1.7TB。以企業(yè)級SSD來(lái)說(shuō),AI伺服器追求速度更高,要求優(yōu)先提升DRAM或HBM容量來(lái)滿(mǎn)足,SSD容量的提升呈非必要擴大容量態(tài)勢,但傳輸接口會(huì )為了高速運算需求,優(yōu)先采用PCIe 5.0接口。相較一般的服務(wù)器,AI服務(wù)器多采用GPGPU來(lái)進(jìn)行運算,因此以NVIDIA A100 80GB配備4或8張加速卡來(lái)計算,HBM用量約320~640GB。未來(lái)AI模型逐漸復雜化趨勢下,將刺激更多HBM需求成長(cháng)。

據此前《韓國經(jīng)濟日報》報道,受益于ChatGPT的火爆,隨著(zhù)市場(chǎng)對AI GPU需求劇增,三星、SK海力士的HBM芯片(High Bandwidth Memory,高帶寬存儲器)贏(yíng)得了額外的訂單,成為目前持續下滑的存儲芯片市場(chǎng)當中意外增長(cháng)的品類(lèi)。

下半年隨著(zhù)更為高端的NVIDIA H100與AMD MI300的推出,也刺激了HBM產(chǎn)品規格的更新。據了解,SK海力士作為目前唯一量產(chǎn)新一代HBM3產(chǎn)品的供應商,今年其在整體HBM市場(chǎng)的市占率有望提升至53%。三星、美光也規劃對應規格的HBM3,將會(huì )陸續在年底至明年初量產(chǎn),它們在HBM市場(chǎng)的市占率分別為38%及9%。

TrendForce的數據也顯示,2022 年三大HBM原廠(chǎng)SK海力士、三星、美光的市占率分別為 50%、 40%和近10%。

資料顯示,2021年10月,SK 海力士就宣布成功開(kāi)發(fā)出HBM3 DRAM 內存,是全球首家開(kāi)發(fā)出新一代高帶寬內存(HBM),也是HBM 系列內存第四代產(chǎn)品。新一代HBM3 DRAM不僅提供高達819GB/s 的帶寬,還堆疊更多層數DRAM 以增加容量,提供更廣泛應用解決方案。相比上一代的HBM2E(460GB/s),整體帶寬提高了78%。目前,NVIDIA A100加速卡目前使用的是6 顆HBM2E內存,提供2TB/s 帶寬。一旦換成HBM3 規格,帶寬最高可提高到4.9TB/s,顯存容量也提升至最高144GB。


*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>