AI是下一個(gè)科技爆點(diǎn)?AI處理器層出不窮
據Semiconductor Engineering報導,研究機構Tractica的數據顯示,全球AI市場(chǎng)規模將在2025年成長(cháng)至368億美元,只不過(guò)目前對于AI的定義或是需要分析的數據類(lèi)型都還沒(méi)有共識,OneSpin Solutions總裁暨執行長(cháng)Raik Brinkmann指出,眼下有三個(gè)問(wèn)題需要解決,第一是大量待處理的數據,其次是并行處理和互連技術(shù),第三則是移動(dòng)大量數據導致的耗能問(wèn)題。
目前市場(chǎng)首批AI芯片幾乎都是以現成的CPU、GPU、FPGA和DSP加以組合而成,盡管英特爾(Intel)、Google、NVIDIA、高通(Qualcomm)和IBM等公司正研發(fā)新的設計,最后誰(shuí)能勝出仍不明朗。無(wú)論如何,這些系統仍需有至少一個(gè)CPU負責控制,但可能需要不同類(lèi)型的協(xié)同處理器。

AI處理多牽涉到矩陣乘法和加法,使用并行運作的GPU成本較低,但缺點(diǎn)是耗能較高。內建DSP區塊和本地存儲器的FPGA可獲得較佳的能源效率,但價(jià)格比較昂貴。Mentor Graphics董事長(cháng)暨執行長(cháng)Wally Rhines表示,有些人使用標準GPU執行深度學(xué)習,同時(shí)也有許多人采用CPU,為了達到使類(lèi)神經(jīng)網(wǎng)路行為更像人腦的目標,刺激了新的一波設計浪潮。
視覺(jué)處理是目前最受關(guān)注的AI區塊,目前大部分的AI研究與自動(dòng)駕駛使用的視覺(jué)處理有關(guān),這項技術(shù)在無(wú)人機和機器人方面的應用也與日俱增。Achronix公司總裁暨執行長(cháng)Robert Blake指出,影像處理的運算復雜度很高,市場(chǎng)需要5~10年時(shí)間沉淀,不過(guò)因為變數精度(variable precision arithmetic)運算需要,可程式邏輯元件的角色會(huì )更吃重。
FPGA非常適合矩陣乘法,可程式化特性增加了設計上的彈性,用來(lái)做決策的數據部分會(huì )在本地處理,部分則由數據中心進(jìn)行,但兩者的比例會(huì )因應用的不同而改變,并影響AI芯片和軟件設計。
目前汽車(chē)使用的AI技術(shù)主要是偵測和避免物體,這和真正的人工智能還有段差距。真正的AI應該具有一定程度的推理,例如判斷如何閃避正在穿越馬路的人群。前者的推論為根據傳感器輸入的大量數據處理和預編程行為得來(lái),后者則能夠作出價(jià)值判斷,思考各種可能后果以找出最佳選擇。
這樣的系統需要極高的頻寬并內建安全機制,此外還必須能保護數據安全,許多根據現成零件開(kāi)發(fā)的設計很難兼顧運算和編程效率。Google試圖以專(zhuān)為機器學(xué)習開(kāi)發(fā)的TPU特殊應用芯片改變這樣的方程式,并開(kāi)放TensorFlow平臺以加快AI發(fā)展速度。
第一代AI芯片將重點(diǎn)放在運算能力和異質(zhì)性,但這就像早期的IoT裝置,在不確定市場(chǎng)如何演變的情況下,業(yè)者只好把所有東西都加進(jìn)去,之后再找出瓶頸,針對特定功能設計,取得功率和性能上的平衡。
隨著(zhù)自駕車(chē)使用案例的增加,AI應用范圍也會(huì )逐漸擴大,這也是為何英特爾在2016年8月收購Nervana的原因。Nervana開(kāi)發(fā)的2.5D深度學(xué)習芯片利用高性能處理器核心將數據從載板移到高頻寬存儲器,希望比GPU解決方案縮短100倍的深度學(xué)習模型訓練時(shí)間。
量子運算則是AI系統的另一個(gè)選擇。IBM研究部門(mén)副總裁Dario Gil解釋?zhuān)绻?張卡片中有3張藍卡1張紅卡,使用傳統運算猜中紅卡的機率為4分之1,使用量子電腦及疊加量子位元的糾纏(entanglement),系統每次都可以提供正確答案。
AI并沒(méi)有所謂最適合的單一系統,也沒(méi)有一種應用可以吃遍各種市場(chǎng),這些進(jìn)一步的細分市場(chǎng)都需要再精致化、再擴大尋找可用工具,并需要生態(tài)系統來(lái)支持,但低功率、高吞吐量及低延遲則是AI系統的通用需求。半導體產(chǎn)業(yè)經(jīng)過(guò)多年仰賴(lài)制程微縮元件以改善功率,性能和成本,如今則需要重新思考進(jìn)入新市場(chǎng)的方法。
評論