GPU為何是安防走向人工智能的核心利器?
圖形處理器(英語(yǔ):GraphicsProcessingUnit,縮寫(xiě):GPU),又稱(chēng)顯示核心、視覺(jué)處理器、顯示芯片,是一種專(zhuān)門(mén)在個(gè)人電腦、工作站、游戲機和一些移動(dòng)設備(如平板電腦、智能手機等)上圖像運算工作的微處理器。
本文引用地址:http://dyxdggzs.com/article/201703/345508.htm用途是將計算機系統所需要的顯示信息進(jìn)行轉換驅動(dòng),并向顯示器提供行掃描信號,控制顯示器的正確顯示,是連接顯示器和個(gè)人電腦主板的重要元件,也是“人機對話(huà)”的重要設備之一。顯卡作為電腦主機里的一個(gè)重要組成部分,承擔輸出顯示圖形的任務(wù),對于從事專(zhuān)業(yè)圖形設計的人來(lái)說(shuō)顯卡非常重要。
GPU是為了能夠更快處理圖像而誕生
在九十年代,一批工程師意識到:在屏幕上進(jìn)行多邊形圖像渲染,本質(zhì)上是個(gè)能并行處理的任務(wù)--每個(gè)像素點(diǎn)的色彩可以獨立計算,不需要考慮其它像素點(diǎn)。于是GPU誕生,成為比CPU更高效的渲染工具。簡(jiǎn)而言之,由于CPU在圖像渲染方面的能力不足,GPU被發(fā)明出來(lái)分擔這部分工作,此后就成了專(zhuān)門(mén)搞這方面的硬件。有了上千個(gè)更加簡(jiǎn)單的核心,GPU能高效地處理讓CPU十分吃力的任務(wù)。只要有合適的代碼配合,這些核心就能處理超大規模的數學(xué)運算,實(shí)現逼真的游戲體驗。
GPU作為顯示卡的“大腦”決定了該顯卡的檔次和大部分性能,同時(shí)GPU也是2D顯示卡和3D顯示卡的區別依據。2D顯示芯片在處理3D圖像與特效時(shí)主要依賴(lài)CPU的處理能力,稱(chēng)為軟加速。3D顯示芯片是把三維圖像和特效處理功能集中在顯示芯片內,也就是所謂的“硬件加速”功能。顯示芯片一般是顯示卡上最大的芯片。時(shí)下市場(chǎng)上的顯卡大多采用NVIDIA和AMD-ATI兩家公司的圖形處理芯片。NVIDIA公司在1999年發(fā)布GeForce256圖形處理芯片時(shí)首先提出GPU的概念。從此NV顯卡的芯就用這個(gè)新名字GPU來(lái)稱(chēng)呼。GPU使顯卡削減了對CPU的依賴(lài),并實(shí)行部分原本CPU的工作,更加是在3D圖形處理時(shí)。
GPU能將3D模型的信息轉換為2D表示,同時(shí)添加不同的紋理和陰影效果,所以GPU在硬件里也是比較特殊的存在。從3D建模到最終顯示在屏幕上,GPU渲染場(chǎng)景使用的是流水線(xiàn)操作。早些時(shí)候流水線(xiàn)操作是固定不能作任何改動(dòng)的,整個(gè)操作由讀取三角形的頂點(diǎn)數據開(kāi)始,接著(zhù)GPU處理完后進(jìn)入幀緩沖區(framebuffer),準備發(fā)送給顯示器。GPU也能對場(chǎng)景進(jìn)行某些特定效果的處理,不過(guò)這些都是由工程師設計固定好的,能提供的選項很少。
GPU設計之初非針對深度學(xué)習而是并行計算
GPU關(guān)鍵性能是并行計算。這意味著(zhù)可以同時(shí)處理運算,而不是一步步進(jìn)行。復雜問(wèn)題可被分解為更簡(jiǎn)單的問(wèn)題,然后同時(shí)進(jìn)行處理。并行計算適用于HPC和超算領(lǐng)域所涉及的許多問(wèn)題類(lèi)型,比如氣象、宇宙模型和DNA序列。并不是只有天體物理學(xué)家和氣象學(xué)家才能充分利用并行計算的優(yōu)點(diǎn)。事實(shí)證明,許多企業(yè)應用能從并行計算獲得超出尋常比例的好處。這包括:數據庫查詢(xún)、密碼學(xué)領(lǐng)域的暴力搜索、對比不同獨立場(chǎng)景的計算機模擬、機器學(xué)習/深度學(xué)習、地理可視化
在GPU設計之初,并非針對深度學(xué)習,而是圖形加速,在NVIDIA推出CUDA架構之前,GPU并無(wú)太強對深度學(xué)習運算能力的支持。而如今,NVIDIA可以提供基于其GPU的從后端模型訓練到前端推理應用的全套深度學(xué)習解決方案,一般的開(kāi)發(fā)人員都可以非常容易地上手使用GPU進(jìn)行深度學(xué)習開(kāi)發(fā),或者高性能運算。而CUDA架構的開(kāi)發(fā),耗費了NVIDIA巨大的人力物力??梢哉f(shuō),是CUDA這個(gè)中間層(computingframework)的優(yōu)化,才使得開(kāi)發(fā)者真正愛(ài)上了GPU,NVIDIA勝在軟件。而CUDA還不能稱(chēng)之為算法,它只是計算硬件與算法之間的橋梁。
目前來(lái)看,NVIDIA作為人工智能計算平臺的領(lǐng)導者,但事實(shí)是,一開(kāi)始并非NVIDIA選擇了人工智能,而是人工智能的研究者選擇了GPU,進(jìn)而成就了NVIDIA。在2012年,Alex利用深度學(xué)習+GPU的方案,一舉贏(yíng)得ImageNetLSVRC-2010圖像識別大賽,并奇跡般地將識別成功率從74%提升到85%。NVIDIA敏銳地覺(jué)察到了這一趨勢,并大力優(yōu)化基于GPU的深度學(xué)習生態(tài)系統,并加速迭代開(kāi)發(fā),三年時(shí)間將GPU性能提升了65倍,從而奠定了目前的王者之位。
AI時(shí)代 GPU將是數據爆炸時(shí)代的核心處理模塊
對于人工智能計算架構來(lái)說(shuō),一般可以歸結為三類(lèi)模式:CPU + GPU,CPU + FPGA,CPU + ASIC(專(zhuān)用集成電路)。其中,應用于圖形、圖像處理領(lǐng)域的GPU 可以并行處理大量數據,非常適合深度學(xué)習的高并行、高本地化數據場(chǎng)景,是目前主流的人工智能計算架構。
如果把科技產(chǎn)業(yè)劃分為三個(gè)時(shí)代:PC 時(shí)代、移動(dòng)互聯(lián)網(wǎng)時(shí)代和AI 時(shí)代。目前,我們處于移動(dòng)互聯(lián)網(wǎng)時(shí)代的末期和下一個(gè)時(shí)代的早期,即以深度學(xué)習、無(wú)人駕駛為主的AI 時(shí)代。
評論