誰(shuí)在挑戰英偉達的 AI 芯片霸主地位?
日前,英偉達的股價(jià)再次迎來(lái)上漲,總市值超過(guò) 2 萬(wàn)億美元,成為繼蘋(píng)果(2.83 萬(wàn)億美元)和微軟(3.06 萬(wàn)億美元)之后第三家估值超過(guò) 2 萬(wàn)億美元的美國公司[1]。
該公司之所以在過(guò)去一年里取得如此迅猛的市值增長(cháng),主要是因為其在 AI 芯片市場(chǎng)發(fā)揮的領(lǐng)先作用。
顯而易見(jiàn),隨著(zhù)以 ChatGPT 為代表的大語(yǔ)言模型的陸續出現,引發(fā)了全世界生成式 AI 市場(chǎng)的蓬勃發(fā)展。
根據數據統計公司 Statista 提供的數據,預計到 2024 年,生成式 AI 的市場(chǎng)規模將達到 666.2 億美元,到 2030 年市場(chǎng)規模有望達到 2070 億美元[2]。
要想構建對于發(fā)展大語(yǔ)言模型來(lái)說(shuō)至關(guān)重要,并且用于深度學(xué)習、大規模模擬和并行處理的應用程序,少不了使用由英偉達開(kāi)發(fā)的 GPU 芯片。
圖丨英偉達發(fā)布的 H100 芯片(來(lái)源:英偉達官網(wǎng))
不過(guò),由于種種原因,自 2018 年以來(lái)全球芯片一直存在短缺的現象,這給 AI、電子、汽車(chē)、醫療等行業(yè)的正常生產(chǎn)帶來(lái)沉重打擊。
一面是 GPU 短缺,一面是對生成式 AI 服務(wù)需求的持續增長(cháng),這種供不應求的態(tài)勢也讓英偉達于 2022 年發(fā)布的 H100 芯片極其昂貴,并且,為打造最好的生成式 AI 產(chǎn)品,包括騰訊、微軟、Meta 等在內的中美科技公司都在追捧這款 AI 芯片。
圖丨預計 H100 已于 2023 年交付給部分買(mǎi)家(來(lái)源:CB Insights)
其中,需要說(shuō)明的是,H100 是英偉達繼 A100 之后推出的最新旗艦 AI 芯片,它作為 AI 基礎設施的核心,具有強大的計算能力,能夠幫助訓練和部署可以生成文本、圖像和音頻的大語(yǔ)言模型。
另外,根據 CB Insights 發(fā)布的 2024 年生成式 AI 預測報告,一顆 H100 的制造成本大約為 3320 美元,但平均售價(jià)已經(jīng)達到 3 萬(wàn)美元,最高售價(jià)甚至一度達到將近 10 萬(wàn)美元[3]。
圖丨H100 售價(jià)大幅上漲(來(lái)源:CB Insights)
從另一視角來(lái)看,這種囤積芯片的行為,也體現出大型科技公司對英偉達的過(guò)度依賴(lài)。
在意識到這一點(diǎn)以后,亞馬遜、谷歌、微軟和 Meta 等科技巨頭紛紛構建自己的 AI 芯片,以及通過(guò)投資 AI 初創(chuàng )企業(yè)等舉措,試圖擺脫上述依賴(lài),并開(kāi)始試圖搶占芯片市場(chǎng)份額。
具體來(lái)說(shuō),谷歌部署 TPU(Tensor Processing Units,張量處理器)已經(jīng)有 8 年時(shí)間。
2017 年,該公司發(fā)布一款新的專(zhuān)用集成電路產(chǎn)品 TPU,能夠支持 AI 神經(jīng)網(wǎng)絡(luò )的訓練以及訓練后的推理。
基于數以萬(wàn)計的 TPU,谷歌成功地構建了自己的 AI 產(chǎn)品,其中就有聊天機器人工具 Bard。
并且,包括 Cohere 在內的其他 AI 公司也在通過(guò)谷歌的云服務(wù)使用這些芯片,并構建類(lèi)似的技術(shù)。
緊隨谷歌之后的亞馬遜,分別于 2019 年和 2021 年發(fā)布了 Inferentia 和 Trainium 兩款芯片。
前者可提供低成本、高通量的機器學(xué)習推理,后者旨在訓練機器學(xué)習模型,包括用于生成式 AI 的模型。
另外,該公司還于 2023 年 9 月給 Anthropic 這家 AI 公司注入 40 億美元的資金,后者將使用亞馬遜的定制芯片來(lái)構建 AI 模型。
亞馬遜 CEO 安迪·賈西(Andy Jassy)曾在該公司 2023 年第 4 季度財報電話(huà)會(huì )議中表示:“要獲得每個(gè)人都想要的 GPU 數量確實(shí)很困難。
因此,這也是亞馬遜的 Inferentia 和 Trainium 芯片對人們如此具有吸引力的一個(gè)重要原因?!?/span>
2023 年 5 月和 11 月,Meta 和微軟兩家公司分別發(fā)布了定制 AI 芯片 MTIA 和 Maia 100。
前者是針對 Meta 內部推理工作負載定制的,在性能、延遲和效率方面都具有良好的表現,后者使用 5 納米工藝制造,能很好地應用于大語(yǔ)言模型的訓練和推理。
據了解,在開(kāi)發(fā)和測試 Maia 100 的過(guò)程中,微軟不僅和 OpenAI 開(kāi)展了廣泛合作,還將基于該產(chǎn)品為后者的 AI 模型提供優(yōu)化和改進(jìn)。
事實(shí)上,上述公司開(kāi)發(fā)與 AI 有關(guān)的定制芯片的行為,有助于它們控制成本、消除芯片短缺,并最終向使用其云服務(wù)的企業(yè)出售芯片。
正如 AI 初創(chuàng )公司 Nervana 的 CEO 兼聯(lián)合創(chuàng )始人納文·拉奧(Naveen Rao)所言:“理論上,如果它們能夠達到足夠高的產(chǎn)量并降低成本,這些公司應該能夠提供比英偉達更好的產(chǎn)品?!?/span>
不過(guò),從目前來(lái)看,它們在短期之內很難超越英偉達,即便后者開(kāi)發(fā)的芯片價(jià)格昂貴,但卻是市場(chǎng)上性能最高、能與更多軟件完美配合的芯片之一。
亞馬遜 AWS 計算和網(wǎng)絡(luò )副總裁大衛·布朗(David Brown)對媒體表示:“我們還有許多年的艱苦創(chuàng )新要做?!?/span>
我們看到各科技公司競相開(kāi)發(fā)定制芯片,但明顯的是,英偉達也不會(huì )停滯不前。
運營(yíng)/排版:何晨龍
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。