NVIDIA要做一家“人工智能公司” 這個(gè)市場(chǎng)到底有多大?
黃仁勛在1993年創(chuàng )立了一家叫做NVIDIA的公司,于1999年發(fā)明了圖形處理器GPU,從此GPU就改變了世界。特別是在游戲領(lǐng)域,NVIDIAGPU幾乎已經(jīng)成為了游戲設備的標配。如今,NVIDIA獲得超過(guò)7300個(gè)專(zhuān)利,其中包括很多對現代計算有深刻影響的技術(shù)。
本文引用地址:http://dyxdggzs.com/article/201609/297101.htm6年前,黃仁勛開(kāi)始意識到人工智能對于未來(lái)人類(lèi)社會(huì )的巨大影響力,開(kāi)始帶領(lǐng)公司整體往人工智能方向轉型。2016年,NVIDIA密集發(fā)布了全線(xiàn)人工智能GPU芯片、系統、軟件和服務(wù),而公司定位轉向成為“世界上偉大的人工智能公司之一”。

NVIDIA全球副總裁兼中國區總經(jīng)理張建中說(shuō):“NVIDIA現在是一家人工智能公司,我們不再單一生產(chǎn)GPU芯片,而是系統性提供人工智能解決方案,包括芯片、服務(wù)器、軟件和服務(wù)等。我們不再是一家GPU公司?!?/p>
從NVIDIA的AI產(chǎn)品布局說(shuō)起
盡管NVIDIA從6年前開(kāi)始布局人工智能AI產(chǎn)品,但到了2016年才推出了比較完整的產(chǎn)品線(xiàn),特別是在2016年9月13日的GTC CHINA 2016(NVIDIAGPU技術(shù)大會(huì ))上發(fā)布的推理加速器Tesla P4/P40,形成了深度學(xué)習的核心產(chǎn)品。
可能有人會(huì )問(wèn),什么是“推理加速器”?
首先,NVIDIA選取的人工智能路線(xiàn)為基于神經(jīng)元網(wǎng)絡(luò )的深度學(xué)習算法,而這一算法有兩大核心組成部分,分別是“訓練”用于獲得神經(jīng)元網(wǎng)絡(luò )模型,以及把訓練好的神經(jīng)元模型用于“推理”。簡(jiǎn)單理解,把基于神經(jīng)元網(wǎng)絡(luò )的深度學(xué)習用于圖像識別,比如用海量花卉類(lèi)圖片“訓練”出神經(jīng)元網(wǎng)絡(luò )模型,這個(gè)模型就能用于識別新圖片里的花卉(“推理”)。
其次,NVIDIA于兩年前宣布了新一代PASCAL GPU芯片架構,這是NVIDIA的第五代GPU架構,也是首個(gè)為深度學(xué)習而設計的GPU,它支持所有主流的深度學(xué)習計算框架。在今年上半年,NVIDIA針對“訓練”推出了基于PASCAL架構的Tesla P100芯片以及相應的超級計算機DGX-1;而在9月的北京GTC大會(huì )上,NVIDIA針對“推理”推出了基于PASCAL的產(chǎn)品Tesla P4/P40,主要區別在于小尺寸的P4可用于任何服務(wù)器,而大尺寸的P40則需要定制服務(wù)器。
為什么要針對“推理”設計加速器呢?這是因為用于深度學(xué)習的神經(jīng)元網(wǎng)絡(luò )模型正在變成規模巨大。以百度用于語(yǔ)音識別的神經(jīng)元網(wǎng)絡(luò )為例,這個(gè)模型從2014年的2500萬(wàn)個(gè)參數暴漲到2015年的1億個(gè)參數,而浮點(diǎn)運算則從2014年的2ExaFLOPS(每秒百億億次浮點(diǎn)計算)飆升到2015年的20ExaFLOPS,但錯誤率卻下降了40%。而2015年Image Net大賽的冠軍,即微軟的殘差網(wǎng)絡(luò )ResNet達到了152層,而2012年的冠軍Alex Net卻只有8層。這就是推理加速器的誕生緣由,即針對上百層和數以萬(wàn)計參數的神經(jīng)元網(wǎng)絡(luò )的大規模并行計算。
所以,Tesla P100是用于“訓練”的GPU,Tesla P4/P40是用于“推理”的GPU,這兩個(gè)產(chǎn)品都是針對企業(yè)和數據中心而設計。在更小型設備的物聯(lián)網(wǎng)層,NVIDIA則在今年3月推出了第二代嵌入式計算機Jetson TX1用于無(wú)人機、機器人、智能攝像頭等,以及9月推出的第二代自動(dòng)汽車(chē)駕駛計算機Drive PX2。
評論