<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > AI芯片彰顯威力:各領(lǐng)域最強算力被巨頭把控

AI芯片彰顯威力:各領(lǐng)域最強算力被巨頭把控

作者: 時(shí)間:2018-10-24 來(lái)源:與非網(wǎng) 收藏

   芯片設計是人工智能產(chǎn)業(yè)鏈的重要一環(huán)。 自 2017 年 5 月以來(lái),各 芯片廠(chǎng)商的新品競相發(fā)布,經(jīng)過(guò)一年多的發(fā)展,各環(huán)節分工逐漸明顯。 芯片的應用場(chǎng)景不再局限于云端,部署于智能手機、 安防攝像頭、及自動(dòng)駕駛汽車(chē)等終端的各項產(chǎn)品日趨豐富。 除了追求性能提升外, AI 芯片也逐漸專(zhuān)注于特殊場(chǎng)景的優(yōu)化。

本文引用地址:http://dyxdggzs.com/article/201810/393278.htm


一文看懂AI芯片最新格局


  自 2017 年 5 月以來(lái)發(fā)布的 AI 芯片一覽

  目前, 人工智能產(chǎn)業(yè)鏈中,包括提供 AI 加速核的 IP 授權商,各種 AI 芯片設計公司,以及晶圓代工企業(yè)。

  按部署的位置來(lái)分, AI 芯片可以部署在數據中心(云端),和手機,安防攝像頭,汽車(chē)等終端上。

  按承擔的任務(wù)來(lái)分,可以被分為用于構建神經(jīng)網(wǎng)絡(luò )模型的訓練芯片,與利用神經(jīng)網(wǎng)絡(luò )模型進(jìn)行推斷的推斷芯片。 訓練芯片注重絕對的計算能力,而推斷芯片更注重綜合指標, 單位能耗算力、時(shí)延、成本等都要考慮。

  訓練芯片受算力約束,一般只在云端部署。推斷芯片按照不同應用場(chǎng)景,分為手機邊緣推斷芯片、安防邊緣推斷芯片、自動(dòng)駕駛邊緣推斷芯片。為方便起見(jiàn),我們也稱(chēng)它們?yōu)槭謾C AI 芯片、安防 AI 芯片和汽車(chē) AI 芯片。

  由于 AI芯片對單位能耗算力要求較高,一般采用 14nm/12nm/10nm等先進(jìn)工藝生產(chǎn)。臺積電目前和 Nvidia、 Xilinx 等多家芯片廠(chǎng)商展開(kāi)合作,攻堅 7nm AI 芯片。


一文看懂AI芯片最新格局


  AI 芯片投資地圖

  AI 芯片市場(chǎng)規模: 未來(lái)五年有接近 10 倍的增長(cháng), 2022 年將達到 352 億美元。根據我們對相關(guān)上市 AI 芯片公司的收入統計,及對 AI 在各場(chǎng)景中滲透率的估算, 2017年 AI 芯片市場(chǎng)規模已達到 39.1 億美元,具體情況如下:

  2017 年全球數據中心 AI 芯片規模合計 23.6 億美元,其中云端訓練芯片市場(chǎng)規模 20.2億美元,云端推斷芯片 3.4 億美元。

  2017 年全球手機 AI 芯片市場(chǎng)規模 3.7 億美元。

  2017 年全球安防攝像頭 AI 芯片市場(chǎng)規模 3.3 億美元。

  2017 年全球自動(dòng)駕駛 AI 芯片的市場(chǎng)規模在 8.5 億美元。


一文看懂AI芯片最新格局


  AI 芯片市場(chǎng)規模及競爭格局

  Nvidia 在 2017 年時(shí)指出,到 2020 年,全球云端訓練芯片的市場(chǎng)規模將達到 110 億美元,而推斷芯片(云端+邊緣) 的市場(chǎng)規模將達到 150 億美元。 Intel 在剛剛結束的 2018 DCI峰會(huì )上,也重申了數據業(yè)務(wù)驅動(dòng)硬件市場(chǎng)增長(cháng)的觀(guān)點(diǎn)。 Intel 將 2022 年與用于數據中心執行 AI 加速的 FPGA 的 TAM 預測,由 70 億美元調高至 80 億美元。

  而同時(shí)我們也注意到:

  1)手機 SoC 價(jià)格不斷上升、 AI 向中端機型滲透都將為行業(yè)創(chuàng )造更廣闊的市場(chǎng)空間。


一文看懂AI芯片最新格局


  歷代 Apple 手機芯片成本趨勢

  2)安防芯片受益于現有設備的智能化升級,芯片需求擴大。


一文看懂AI芯片最新格局


  自動(dòng)駕駛算力需求加速芯片升級

  3)自動(dòng)駕駛方面,針對豐田公司提出的算力需求,我們看到當下芯片算力與 L5 級自動(dòng)駕駛還有較大差距。 英飛凌公司給出了各自動(dòng)駕駛等級中的半導體價(jià)值預測, 可以為我們的 TAM 估算提供參考。


一文看懂AI芯片最新格局


  英飛凌對各自動(dòng)駕駛等級中半導體價(jià)值的預測

  結合以上觀(guān)點(diǎn),及我們對 AI 在各應用場(chǎng)景下滲透率的分析,我們預測:

  云端訓練芯片市場(chǎng)規模在 2022 年將達到 172 億美元, CAGR~54%。

  云端推斷芯片市場(chǎng)規模在 2022 年將達到 72 億美元, CAGR~84%。

  用于智能手機的邊緣推斷芯片市場(chǎng)規模 2022 年將達到 38 億美元, CAGR~59%。

  用于安防攝像頭的邊緣推斷芯片市場(chǎng)規模 2022 年將達到 18 億美元, CAGR~41%。

  用于自動(dòng)駕駛汽車(chē)的邊緣推斷芯片市場(chǎng)規模 2022 年將達到 52 億美元, CAGR~44%。

  云端訓練芯片: TPU 很難撼動(dòng) Nvidia GPU 的壟斷地位

  訓練是指通過(guò)大量的數據樣本,代入神經(jīng)網(wǎng)絡(luò )模型運算并反復迭代,來(lái)獲得各神經(jīng)元“正確”權重參數的過(guò)程。 CPU 由于計算單元少,并行計算能力較弱,不適合直接執行訓練任務(wù),因此訓練一般采用“CPU+加速芯片”的異構計算模式。目前 Nvidia 的 GPU+CUDA計算平臺是最成熟的 AI 訓練方案,除此還有:


一文看懂AI芯片最新格局


  AI 芯片工作流程

  第三方異構計算平臺 OpenCL + AMD GPU 或 OpenCL+Intel/Xilinx 的 FPGA。

  云計算服務(wù)商自研加速芯片(如 Google 的 TPU) 這兩種方案。各芯片廠(chǎng)商基于不同方案,都推出了針對于云端訓練的 AI 芯片。


一文看懂AI芯片最新格局


  云端訓練芯片對比

  Google

  在 GPU 之外,云端訓練的新入競爭者是 TPU。 Google 在去年正式發(fā)布了其 TPU 芯片,并在二代產(chǎn)品中開(kāi)始提供對訓練的支持,但比較下來(lái), GPU 仍然擁有最強大的帶寬(900GB/s,保證數據吞吐量)和極高的深度學(xué)習計算能力(120 TFLOPS vs. TPUv2 45 TFLOPS),在功耗上也并沒(méi)有太大劣勢(TPU 進(jìn)行訓練時(shí),引入浮點(diǎn)數計算,需要逾 200W 的功耗,遠不及推斷操作節能)。目前 TPU 只提供按時(shí)長(cháng)付費使用的方式,并不對外直接銷(xiāo)售,市占率暫時(shí)也難以和 Nvidia GPU 匹敵。

  Intel

  雖然深度學(xué)習任務(wù)主要由 GPU 承擔,但 CPU 目前仍是云計算芯片的主體。 Intel 于 2015年底年收購全球第二大 FPGA 廠(chǎng)商 Altera 以后,也積極布局 CPU+FPGA 異構計算助力 AI,并持續優(yōu)化 Xeon CPU 結構。 2017 年 Intel 發(fā)布了用于 Xeon 服務(wù)器的,新一代標準化的加速卡,使用戶(hù)可以 AI 領(lǐng)域進(jìn)行定制計算加速。得益于龐大的云計算市場(chǎng)支撐, Intel 數據中心組業(yè)務(wù)收入規模一直位于全球首位, 2016-17 年單季保持同比中高個(gè)位數增長(cháng)。 2017年 4 季度起,收入同比增速開(kāi)始爬坡至 20%左右,但相比 Nvidia 的強勁增長(cháng)態(tài)勢仍有差距。


一文看懂AI芯片最新格局


  AMD

  AMD 雖未單獨拆分數據中心收入,但從其計算和圖像業(yè)務(wù)的收入增長(cháng)情況來(lái)看, GPU 銷(xiāo)量向好。目前 AMD GPU 也開(kāi)始切入深度學(xué)習訓練任務(wù),但市場(chǎng)規模落后于 Nvidia。

  云端推斷芯片:百家爭鳴,各有千秋

  推斷是指借助現有神經(jīng)網(wǎng)絡(luò )模型進(jìn)行運算, 利用新的輸入數據來(lái)一次性獲得正確結論的過(guò)程。 推斷過(guò)程對響應速度一般有較高要求, 因此會(huì )采用 AI 芯片(搭載訓練完成的神經(jīng)網(wǎng)絡(luò )模型)進(jìn)行加速。

  相比訓練芯片,推斷芯片考慮的因素更加綜合:?jiǎn)挝还乃懔?,時(shí)延,成本等等。初期推斷也采用 GPU 進(jìn)行加速,但由于應用場(chǎng)景的特殊性,依據具體神經(jīng)網(wǎng)絡(luò )算法優(yōu)化會(huì )帶來(lái)更高的效率, FPGA/ASIC 的表現可能更突出。除了 Nvidia、 Google、 Xilinx、 Altera(Intel)等傳統芯片大廠(chǎng)涉足云端推斷芯片以外, Wave computing、 Groq 等初創(chuàng )公司也加入競爭。中國公司里,、比特大陸同樣積極布局云端芯片業(yè)務(wù)。


一文看懂AI芯片最新格局


  主要云端推斷芯片對比


上一頁(yè) 1 2 下一頁(yè)

關(guān)鍵詞: AI 寒武紀

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>