NVIDIA GPU弱爆了!世界第一AI芯片升級4萬(wàn)億晶體管、90萬(wàn)核心
3月14日消息,Cerebras Systems發(fā)布了他們的第三代晶圓級AI加速芯片“WSE-3”(Wafer Scale Engine 3),規格參數更加瘋狂,而且在功耗、價(jià)格不變的前提下性能翻了一番。
本文引用地址:http://dyxdggzs.com/article/202403/456315.htm2019年的第一代WSE-1基于臺積電16nm工藝,面積46225平方毫米,晶體管1.2萬(wàn)億個(gè),擁有40萬(wàn)個(gè)AI核心、18GB SRAM緩存,支持9PB/s內存帶寬、100Pb/s互連帶寬,功耗高達15千瓦。2021年的第二代WSE-2升級臺積電7nm工藝,面積不變還是46225平方毫米,晶體管增至2.6萬(wàn)億個(gè),核心數增至85萬(wàn)個(gè),緩存擴至40GB,內存帶寬20PB/s,互連帶寬220Pb/s。
如今的第三代WSE-3再次升級為臺積電5nm工藝,面積沒(méi)說(shuō)但應該差不多,畢竟需要一塊晶圓才能造出一顆芯片,不可能再大太多了。
晶體管數量繼續增加達到驚人的4萬(wàn)億個(gè),AI核心數量進(jìn)一步增加到90萬(wàn)個(gè),緩存容量達到44GB,外部搭配內存容量可選1.5TB、12TB、1200TB。
乍一看,核心數量、緩存容量增加的不多,但性能實(shí)現了飛躍,峰值AI算力高達125PFlops,也就是每秒12.5億億次浮點(diǎn)計算,堪比頂級超算。它可以訓練相當于GPT-4、Gemini十幾倍的下一代AI大模型,能在單一邏輯內存空間內存儲24萬(wàn)億參數,無(wú)需分區或者重構。
用它來(lái)訓練1萬(wàn)億參數大模型的速度,相當于用GPU訓練10億參數。
四顆并聯(lián),它能在一天之內完成700億參數的調教,而且支持最多2048路互連,一天就可以完成Llama 700億參數的訓練。
WSE-3的具體功耗、價(jià)格沒(méi)公布,根據上代的情況看應該在200多萬(wàn)美元。
評論