<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 市場(chǎng)分析 > 六大科技巨頭的自研AI芯片進(jìn)程解讀

六大科技巨頭的自研AI芯片進(jìn)程解讀

作者: 時(shí)間:2024-02-21 來(lái)源:半導體產(chǎn)業(yè)縱橫 收藏

2023 年,「生成式人工智能」無(wú)疑是科技行業(yè)最熱門(mén)的術(shù)語(yǔ)。

本文引用地址:http://dyxdggzs.com/article/202402/455554.htm

OpenAI 推出的生成應用 ChatGPT 引發(fā)了市場(chǎng)狂熱,促使各科技巨頭紛紛加入競爭。

據 TechNews 報道,目前 NVIDIA 通過(guò)提供 AI 加速器占據市場(chǎng)主導地位,但這導致了市場(chǎng)上其 AI 加速器的短缺。甚至 OpenAI 也打算開(kāi)發(fā)自己的芯片,以避免受到供應鏈緊張的限制。

在當前的 AI 發(fā)展浪潮中,NVIDIA 無(wú)疑是 AI 算力的領(lǐng)跑者。其 A100/H100 系列芯片已獲得全球人工智能市場(chǎng)頂級客戶(hù)的訂單。

華爾街投資銀行 Bernstein Research 的分析師 Stacy Rasgon 表示,使用 ChatGPT 進(jìn)行的每次查詢(xún)的成本約為 0.04 美元。如果 ChatGPT 查詢(xún)規模擴大到 Google 搜索量的十分之一,初始部署將需要價(jià)值約 481 億美元的 GPU 進(jìn)行計算,每年需要價(jià)值約 160 億美元的芯片來(lái)維持運營(yíng),以及類(lèi)似的相關(guān)芯片執行任務(wù)的數量。

因此,無(wú)論是為了降低成本、減少對 NVIDIA 的過(guò)度依賴(lài),甚至是進(jìn)一步增強議價(jià)能力,全球科技巨頭都啟動(dòng)了開(kāi)發(fā)自己的 AI 加速器的計劃。

據科技媒體 The Information 援引行業(yè)消息人士報道,微軟、OpenAI、特斯拉、谷歌、亞馬遜和 Meta 等六大全球科技巨頭都在投資開(kāi)發(fā)自己的 AI 加速器芯片。這些公司預計將與 NVIDIA 的旗艦 H100 AI 加速器芯片展開(kāi)競爭。

科技巨頭自研芯片進(jìn)展

微軟

2023 年 11 月,微軟在年度 IT 專(zhuān)業(yè)人士和開(kāi)發(fā)者大會(huì ) Ignite 上推出兩款自研芯片——云端 AI 芯片微軟 Azure Maia 100、服務(wù)器 CPU 微軟 Azure Cobalt 100。

Maia 100 是微軟為微軟云中大語(yǔ)言模型訓練和推理而設計的第一款 AI 芯片,采用臺積電 5nm 工藝,擁有 1050 億顆晶體管,針對 AI 和生成式 AI 進(jìn)行了優(yōu)化,支持微軟首次實(shí)現的低于 8 位數據類(lèi)型(MX 數據類(lèi)型)。微軟已經(jīng)在用搜索引擎 Bing 和 Office AI 產(chǎn)品測試該芯片。

Cobalt 100 是微軟為微軟云定制開(kāi)發(fā)的第一款 CPU,也是微軟打造的第一款完整的液冷服務(wù)器 CPU,采用 Arm Neoverse CSS 設計、128 核。

微軟還定制設計了一個(gè) AI 端到端機架,并搭配了一個(gè)「助手」液冷器,原理類(lèi)似于汽車(chē)散熱器。

兩款芯片明年年初開(kāi)始在微軟數據中心推出,最初為微軟的 Copilot 或 Azure OpenAI Service 等服務(wù)提供動(dòng)力。微軟已經(jīng)在設計第二代版本的 Azure Maia AI 芯片和 Cobalt CPU 系列。

這些芯片代表了微軟交付基礎設施系統的最后一塊拼圖——從芯片、軟件和服務(wù)器到機架和冷卻系統的一切,微軟這些系統都是由上到下設計的,可以根據內部和客戶(hù)的工作負載進(jìn)行優(yōu)化。

OpenAI

據悉,OpenAI 也正在探索自研 AI 芯片,同時(shí)開(kāi)始評估潛在收購目標。在其招聘網(wǎng)站上,最近也出現了 AI 硬件共同開(kāi)發(fā)、評估相關(guān)崗位。OpenAI 擬籌建的合資企業(yè)與總部位于阿布扎比的 G42 和軟銀集團等潛在投資者進(jìn)行了討論,旨在解決當前和預期的人工智能相關(guān)芯片供應短缺問(wèn)題。

毫無(wú)疑問(wèn),該項目的財務(wù)和運營(yíng)規模顯然是巨大的。Altman 僅與 G42 的討論就集中在籌集 80 億至 100 億美元之間。該項目的全部范圍和合作伙伴名單仍處于早期階段,這表明建立此類(lèi)設施網(wǎng)絡(luò )需要大量投資和時(shí)間。

盡管還不清楚 Altman 是否計劃購買(mǎi)一家成熟的代工廠(chǎng)來(lái)生產(chǎn) AI 芯片,或建立一個(gè)全新的晶圓廠(chǎng)網(wǎng)絡(luò )來(lái)滿(mǎn)足 OpenAI 及其潛在合作伙伴的需求,但此前有人分析 Altman 可能會(huì )考慮把參與投資的芯片公司納入麾下,包括 CerebrasRain NeuromorphicsAtomic SemiCerebras、Rain Neuromorphics、tomic Semi。

特斯拉

電動(dòng)汽車(chē)制造商特斯拉也積極參與 AI 加速器芯片的開(kāi)發(fā)。特斯拉主要圍繞自動(dòng)駕駛需求,迄今為止推出了兩款 AI 芯片:全自動(dòng)駕駛(FSD)芯片和 Dojo D1 芯片。

FSD 芯片用于特斯拉汽車(chē)的自動(dòng)駕駛系統,而 Dojo D1 芯片則用于特斯拉的超級計算機。它充當通用 CPU,構建 AI 訓練芯片來(lái)為 Dojo 系統提供動(dòng)力。

谷歌

Google 也早在 2013 年就秘密研發(fā)專(zhuān)注 AI 機器學(xué)習算法芯片,并用于云計算數據中心,取代英偉達 GPU。

這款 TPU 自研芯片 2016 年公開(kāi),為深度學(xué)習模型執行大規模矩陣運算,如自然語(yǔ)言處理、計算機視覺(jué)和推薦系統模型。Google 其實(shí)在 2020 年的資料中心便建構 AI 芯片 TPU v4,直到 2023 年 4 月才首次公開(kāi)細節。

2023 年 12 月 6 日,谷歌官宣了全新的多模態(tài)大模型 Gemini,包含了三個(gè)版本,根據谷歌的基準測試結果,其中的 Gemini Ultra 版本在許多測試中都表現出了「最先進(jìn)的性能」,甚至在大部分測試中完全擊敗了 OpenAI 的 GPT-4。

而在 Gemini 出盡了風(fēng)頭的同時(shí),谷歌還丟出了另一個(gè)重磅炸彈——全新的自研芯片 TPU v5p,它也是迄今為止功能最強大的 TPU。

根據官方提供的數據,每個(gè) TPU v5p pod 在三維環(huán)形拓撲結構中,通過(guò)最高帶寬的芯片間互聯(lián)(ICI),以 4800 Gbps/chip 的速度將 8960 個(gè)芯片組合在一起,與 TPU v4 相比,TPU v5p 的 FLOPS 和高帶寬內存(HBM)分別提高了 2 倍和 3 倍。

除此之外,TPU v5p 訓練大型 LLM 模型的速度比上一代 TPU v4 快 2.8 倍,利用第二代 SparseCores,TPU v5p 訓練嵌入密集模型的速度比 TPU v4 快 1.9 倍。TPU v5p 在每個(gè) pod 的總可用 FLOPs 方面的可擴展性也比 TPU v4 高出 4 倍,且每秒浮點(diǎn)運算次數(FLOPS)增加了一倍,單個(gè) pod 中的芯片數量也增加了一倍,大大提高了訓練速度的相對性能。

亞馬遜

亞馬遜旗下的云計算服務(wù)提供商亞馬遜網(wǎng)絡(luò )服務(wù)(AWS),自 2013 年推出 Nitro1 芯片以來(lái),它一直是開(kāi)發(fā)自有芯片的先驅。AWS 此后開(kāi)發(fā)了自研芯片的三個(gè)產(chǎn)品線(xiàn),包括網(wǎng)絡(luò )芯片、服務(wù)器芯片、AI 機器學(xué)習芯片。

其中,AWS 自研 AI 芯片陣容包括推理芯片 Inferentia 和訓練芯片 Trainium。

此外,AWS 于 2023 年初推出了專(zhuān)為人工智能設計的 Inferentia 2(Inf2)。它將計算性能提高了三倍,同時(shí)將加速器總內存增加了四分之一。

它通過(guò)芯片之間直接超高速連接支持分布式推理,可處理多達 1750 億個(gè)參數,使其成為當今 AI 芯片市場(chǎng)上最強大的內部制造商。

Meta

Meta 在 2022 年之前繼續使用專(zhuān)為加速 AI 算法而定制的 CPU 和定制芯片組來(lái)執行其 AI 任務(wù)。然而,由于 CPU 在執行 AI 任務(wù)方面與 GPU 相比效率較低,Meta 放棄了 2022 年大規模推出定制設計芯片的計劃,而是選擇購買(mǎi)價(jià)值數十億美元的 NVIDIA GPU。

盡管如此,在其他主要廠(chǎng)商開(kāi)發(fā)內部人工智能加速器芯片的浪潮中,Meta 也涉足內部芯片開(kāi)發(fā)。

2023 年 5 月 19 日,Meta 進(jìn)一步公布了其人工智能訓練和推理芯片項目。該芯片功耗僅為 25 瓦,是 NVIDIA 同類(lèi)產(chǎn)品功耗的 1/20。它采用 RISC-V 開(kāi)源架構。據市場(chǎng)報道,該芯片也將采用臺積電的 7 納米制造工藝生產(chǎn)。

美國去年 10 月擴大禁止向中國出售先進(jìn)人工智能芯片,英偉達雖然迅速為中國市場(chǎng)量身訂造新芯片,以符合美國出口規定。但近日有消息指出,阿里巴巴、騰訊等中國云計算大客戶(hù),并不熱衷購買(mǎi)功能降低的減規版 H20 芯片,轉成國內采購。策略轉變顯示透過(guò)部分先進(jìn)半導體訂單轉給中國公司,將更依賴(lài)中國本土廠(chǎng)商芯片。

TrendForce 表示,中國云端業(yè)者約八成高階 AI 芯片購自英偉達,五年內可能降至 50%~60%。若美國繼續加強芯片管制,可能對英偉達中國地區銷(xiāo)售造成額外壓力。



關(guān)鍵詞: 生成式AI

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>