億歐智庫:2022年中國AI芯片行業(yè)深度研究
四大類(lèi)人工智能芯片(GPU、ASIC、FGPA、類(lèi)腦芯片)及系統級智能芯片在國內的發(fā)展進(jìn)度層次不齊。用于云端的訓練、推斷等大算力通用 芯片發(fā)展較為落后;適用于更多垂直行業(yè)的終端應用芯片如自動(dòng)駕駛、智能安防、機器人等專(zhuān)用芯片發(fā)展較快。超過(guò)80%中國人工智能產(chǎn)業(yè)鏈企 業(yè)也集中在應用層。
本文引用地址:http://dyxdggzs.com/article/202203/432210.htm無(wú)芯片不AI , 以AI芯片為載體實(shí)現的算力是人工智能發(fā)展水平的重要衡量標準。
廣義的AI芯片:專(zhuān)門(mén)用于處理人工智能應用中大量計算任務(wù)的模塊,即面向人工智能領(lǐng)域的芯片均被稱(chēng)為AI芯片。 狹義的AI芯片:針對人工智能算法做了特殊加速設計的芯片。
《2022中國AI芯片行業(yè)研究報告》報告將對針對狹義的AI芯片即人工智能算法做特殊加速設計的四種主流芯片GPU、ASIC、FPGA、類(lèi)腦芯片以及系統級AI芯片技術(shù)、實(shí)現 AI的主流算法及在場(chǎng)景中的應用情況進(jìn)行解析。
人工智能算法需要在計算機設備上實(shí)現,而芯片又是計算機設備運作的核心零件,因此AI芯片的發(fā)展主要依賴(lài)兩個(gè)領(lǐng)域:第一個(gè)是模仿人腦建 立的數學(xué)模型與算法,第二個(gè)是半導體集成電路即芯片。優(yōu)質(zhì)的算法需要足夠的運算能力也就是高性能芯片的支持。
億歐智庫2019年發(fā)布AI芯片行業(yè)研究報告認為,人工智能于芯片的發(fā)展分為三個(gè)階段:第一階段由于芯片算力不足,神經(jīng)網(wǎng)絡(luò )算法未能落 地;第二階段芯片算力提升,但仍無(wú)法滿(mǎn)足神經(jīng)網(wǎng)絡(luò )算法需求;第三階段,GPU和新架構的AI芯片促進(jìn)了人工智能的落地。
目前,隨著(zhù)第三代神經(jīng)網(wǎng)絡(luò )的出現,彌合了神經(jīng)科學(xué)與機器學(xué)習之間的壁壘,AI芯片正在向更接近人腦的方向發(fā)展。

AI芯片一般泛指所有用來(lái)加速AI應用,尤其是用在基于神經(jīng)網(wǎng)絡(luò )的深度學(xué)習中的硬件。
AI芯片根據其技術(shù)架構,可分為GPU、FPGA、ASIC及類(lèi)腦芯片,同時(shí)CPU可執行通用AI計算,其中類(lèi)腦芯片還處于探索階段。
AI芯片根據其在網(wǎng)絡(luò )中的位置可以分為云端AI芯片、邊緣及終端AI芯片;根據其在實(shí)踐中的目標,可分為訓練(training)芯片和推理 (inference)芯片。
云端主要部署訓練芯片和推理芯片,承擔訓練和推理任務(wù),具體指智能數據分析、模型訓練任務(wù)和部分對傳輸帶寬要求比高的推理任務(wù);邊緣 和終端主要部署推理芯片,承擔推理任務(wù),需要獨立完成數據收集、環(huán)境感知、人機交互及部分推理決策控制任務(wù)。

GPU(Graphics Processing Unit)圖形處理器最初是一種專(zhuān)門(mén)用于圖像處理的微處理器,隨著(zhù)圖像處理需求的不斷提升,其圖像處理能力也得 到迅速提升。目前,GPU主要采用數據并行計算模式完成頂點(diǎn)渲染、像素渲染、幾何渲染、物理計算和通用計算等任務(wù)。因其超過(guò)CPU數十倍 的計算能力,已成為通用計算機和超級計算機的主要處理器。其中通用圖形處理器GPGPU(GeneralPropose Computing on GPU)常用于數據 密集的科學(xué)與工程計算中。
英偉達與AMD仍占據GPU霸主地位,2018年至今,國產(chǎn)GPU也積極發(fā)展中,已有部分產(chǎn)品落地。

FPGA全稱(chēng)是Field Programmable Gate Array:可編程邏輯門(mén)陣列,是一種“可重構”芯片,具有模塊化和規則化的架構,主要包含可編程 邏輯模塊、片上儲存器及用于連接邏輯模塊的克重購互連層次結構。在較低的功耗下達到GFLOPS數量級的算力使之成為并行實(shí)現人工神經(jīng) 網(wǎng)絡(luò )的替代方案。
ASIC(Application-Specific Integrated Circuit)是指應特定用戶(hù)要求和特定電子系統的需要而設計、制造的集成電路。ASIC從性能、能效、 成本均極大的超越了標準芯片,非常適合AI計算場(chǎng)景,是當前大部分AI初創(chuàng )公司開(kāi)發(fā)的目標產(chǎn)品。

FPGA具有開(kāi)發(fā)周期短,上市速度快,可配置性等特點(diǎn),目前被大量的應用在大型企業(yè)的線(xiàn)上數據處理中心和軍工單位。ASIC一次性成本遠遠 高于FPGA,但由于其量產(chǎn)成本低,應用上就偏向于消費電子,如移動(dòng)終端等領(lǐng)域。
目前,處理器中開(kāi)始集成FPGA,也出現了可編程的ASIC,同時(shí),隨著(zhù)SoC的發(fā)展,兩者也在互相融合。

在手機、可穿戴設備等端設備中,很少有獨立的芯片,AI加速將由SoC上的一個(gè)IP實(shí)現。
SoC(System-on-chip,片上系統)作為ASIC設計方法學(xué)中的新技術(shù),始于20世紀90年代中期,是以嵌入式系統為核心,以IP復用技術(shù)為基 礎,集軟、硬件于一體的集成芯片。在一個(gè)芯片上實(shí)現信號的傳輸、存儲、處理和I/O等功能,包含嵌入軟件及整個(gè)系統的全部?jì)热荨?nbsp;
由于高集成效能,SoC已經(jīng)成為微電子芯片發(fā)展的必然趨勢。

CPU/GPU/GFPGA/ASIC及SoC是目前用的較多的AI芯片,此類(lèi)AI芯片大多是基于深度學(xué)習,也就是深度神經(jīng)網(wǎng)絡(luò )(DNN),以并行方式進(jìn) 行計算的芯片,此類(lèi)AI芯片又被稱(chēng)為深度學(xué)習加速器。
如今,模仿大腦結構的芯片具有更高的效率和更低的功耗,這類(lèi)基于神經(jīng)形態(tài)計算,也就是脈沖神經(jīng)網(wǎng)絡(luò )(SNN)的芯片為類(lèi)腦芯片。
目前,部分企業(yè)產(chǎn)品已進(jìn)入小批量試用階段 ,類(lèi)腦芯片最快將于2023年成熟,能效比有望較當前芯片提高2-3個(gè)數量級。
現在用于深度學(xué)習的AI芯片(包括CPU、GPU、FPGA、ASIC)為了實(shí)現深度學(xué)習的龐大乘積累加運算和并行計算的高性能,芯片面積越做越 大,帶來(lái)了成本和散熱等問(wèn)題。AI芯片軟件編程的成熟度、芯片的安全,神經(jīng)網(wǎng)絡(luò )的穩定性等問(wèn)題也未能得到很好的解決,因此,在現有基礎 上進(jìn)行改進(jìn)和完善此類(lèi)AI芯片仍是當前主要的研究方向。
最終,AI芯片將近一步提高智能,向著(zhù)更接近人腦的高度智能方向不斷發(fā)展,并向著(zhù)邊緣逐步移動(dòng)以獲得更低的能耗。

AI硬件加速技術(shù)已經(jīng)逐漸走向成熟。未來(lái)可能更多的創(chuàng )新會(huì )來(lái)自電路和器件級技術(shù)的結合,比如存內計算,類(lèi)腦計算;或者是針對特殊的計 算模式或者新模型,比如稀疏化計算和近似計算,對圖網(wǎng)絡(luò )的加速;或者是針對數據而不是模型的特征來(lái)優(yōu)化架構。

同時(shí),如果算法不發(fā)生大的變化,按照現在A(yíng)I加速的主要方法和半導體技術(shù)發(fā)展的趨勢,或將在不遠的將來(lái)達到數字電路的極限(約1到 10TFlops/W),往后則要靠近似計算,模擬計算,甚至是材料或基礎研究上的創(chuàng )新。
評論