預估2024年AI服務(wù)器產(chǎn)值約占服務(wù)器市場(chǎng)比重65%
根據TrendForce集邦咨詢(xún)最新發(fā)布「AI服務(wù)器產(chǎn)業(yè)分析報告」指出,2024年大型CSPs(云端服務(wù)業(yè)者)及品牌客戶(hù)等對于高階AI服務(wù)器的高度需求未歇,加上CoWoS原廠(chǎng)臺積電及HBM(高帶寬內存)原廠(chǎng)如SK hynix(SK海力士)、Samsung(三星)及Micron(美光科技)逐步擴產(chǎn)下,于今年第2季后短缺狀況大幅緩解,連帶使得NVIDIA(英偉達)主力方案H100的交貨前置時(shí)間(Lead Time)從先前動(dòng)輒40-50周下降至不及16周,因此TrendForce集邦咨詢(xún)預估AI服務(wù)器第2季出貨量將季增近20%,全年出貨量上修至167萬(wàn)臺,年增率達41.5%。
本文引用地址:http://dyxdggzs.com/article/202407/461123.htmTrendForce集邦咨詢(xún)表示,今年大型CSPs(云端服務(wù)供應商)預算持續聚焦于采購AI服務(wù)器,進(jìn)而排擠一般型服務(wù)器成長(cháng)力道,相較于A(yíng)I服務(wù)器的高成長(cháng)率,一般型服務(wù)器出貨量年增率僅有1.9%。而AI服務(wù)器占整體服務(wù)器出貨的比重預估將達12.2%,較2023年提升約3.4個(gè)百分點(diǎn)。若估算產(chǎn)值,AI服務(wù)器的營(yíng)收成長(cháng)貢獻程度較一般型服務(wù)器明顯,預估2024年AI服務(wù)器產(chǎn)值將達1,870億美元,成長(cháng)率達69%,產(chǎn)值占整體服務(wù)器高達65%。
從AI服務(wù)器搭配AI芯片類(lèi)型來(lái)看,來(lái)自北美CSPs業(yè)者(如AWS、Meta等)持續擴大自研ASIC(專(zhuān)用集成電路),以及中國本土業(yè)者如:阿里巴巴、百度、華為等積極擴大自主ASIC 方案,促ASIC服務(wù)器占整體AI服務(wù)器的比重在2024年將提升至26%,而主流搭載GPU的AI服務(wù)器占比則約71%。
就AI服務(wù)器搭載的AI芯片供應商分布來(lái)看,單看AI服務(wù)器搭載GPU,英偉達市占率最高、逼近9成,AMD(超威)市占率則僅約8%。但若加計所有AI服務(wù)器用AI芯片包含GPU、ASIC、FPGA(可編程邏輯陣列),英偉達今年市占率則約64%。
據TrendForce集邦咨詢(xún)的調查,展望2025年市場(chǎng)對于高階AI服務(wù)器需求仍強,尤其以英偉達新一代Blackwell(包含GB200、B100/B200等)將取代Hopper平臺成為市場(chǎng)主流,此亦將帶動(dòng)CoWoS及HBM等需求。以英偉達的B100而言,其芯片尺寸將較H100翻倍,會(huì )消耗更多的CoWoS用量,預估2025年主要供應商臺積電的CoWoS生產(chǎn)量規模至年底總產(chǎn)能可達550k-600k,成長(cháng)率逼近8成。另以HBM用量來(lái)看,2024年主流H100搭載80GB HBM3,到2025年英偉達Blackwell Ultra或AMD MI350等主力芯片,將搭載達288GB的HBM3e,單位用量成長(cháng)逾3倍,隨AI服務(wù)器市場(chǎng)需求持續強勁下,有望帶動(dòng)2025年HBM整體供給量翻倍成長(cháng)。
評論