AI大勢!GPU訂單排到明年、HBM與先進(jìn)封裝需求大漲
2023年ChatGPT引發(fā)的AI熱潮仍在繼續,近期媒體報道,今年擁有云端相關(guān)業(yè)務(wù)的企業(yè),大多都向英偉達采購了大量GPU,目前該公司訂單已排至2024年。
本文引用地址:http://dyxdggzs.com/article/202306/447944.htm同時(shí),由于英偉達大量急單涌入,晶圓代工企業(yè)臺積電也從中受益。據悉,英偉達正向臺積電緊急追單,這也令臺積電5納米制程產(chǎn)能利用率推高至接近滿(mǎn)載。臺積電正以超級急件(superhotrun)生產(chǎn)英偉達H100、A100等產(chǎn)品,而且訂單排至年底。
業(yè)界認為,隨著(zhù)ChatGPT等AIGC(生成式人工智能)快速發(fā)展,未來(lái)市場(chǎng)對GPU的需求將不斷上升,并將帶動(dòng)HBM以及先進(jìn)封裝發(fā)展。
資料顯示,AIGC模型需要使用AI服務(wù)器進(jìn)行訓練與推理,其中,訓練側AI服務(wù)器基本需要采用中高端GPU,在這些GPU中,HBM的滲透率接近100%。
全球市場(chǎng)研究機構TrendForce集邦咨詢(xún)預估2023年AI服務(wù)器(包含搭載GPU、FPGA、ASIC等)出貨量近120萬(wàn)臺,年增38.4%,占整體服務(wù)器出貨量近9%。
從高端GPU搭載的HBM來(lái)看,英偉達高端GPU H100、A100主采HBM2e、HBM3。以今年H100 GPU來(lái)說(shuō),搭載HBM3技術(shù)規格,其中傳輸速度也較HBM2e快,可提升整體AI服務(wù)器系統運算效能。隨著(zhù)高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,集邦咨詢(xún)預估2023年HBM需求量將年增58%,2024年有望再成長(cháng)約30%。
先進(jìn)封裝產(chǎn)能方面,當前臺積電CoWoS封裝技術(shù)為目前AI服務(wù)器芯片主力采用者。
集邦咨詢(xún)估計在高端AI芯片及HBM強烈需求下,TSMC于2023年底CoWoS月產(chǎn)能有望達12K,其中,英偉達在A(yíng)100及H100等相關(guān)AI Server需求帶動(dòng)下,對CoWoS產(chǎn)能較年初需求量,估提升近5成,加上AMD、Google等高端AI芯片需求成長(cháng)下,將使下半年CoWoS產(chǎn)能較為緊迫,而此強勁需求將延續至2024年,預估若在相關(guān)設備齊備下,先進(jìn)封裝產(chǎn)能將再成長(cháng)3-4成。
評論