<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 什么是DNN?它對AI發(fā)展意味著(zhù)什么

什么是DNN?它對AI發(fā)展意味著(zhù)什么

作者: 時(shí)間:2022-07-04 來(lái)源:電子工程世界 收藏

為了讓AI加速器在最短延遲內達到最佳精準度,特別是在自動(dòng)駕駛車(chē)中,TFLOP已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針,然而,有專(zhuān)家認為這種野蠻處理方式并不可持續…… 

本文引用地址:http://dyxdggzs.com/article/202207/435864.htm

為了讓人工智能(AI)加速器在最短延遲內達到最佳精準度,特別是在自動(dòng)駕駛車(chē)(AV)中,TFLOP(兆次浮點(diǎn)運算)已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針。這場(chǎng)競賽的選手包括Nvidia的Xavier、Mobileye的EyeQ5、特斯拉(Tesla)的全自動(dòng)駕駛(FSD)計算機芯片,以及NXP-Kalray芯片。

然而,有專(zhuān)家認為這種野蠻處理方式并不可持續。在EE Times的一次獨家專(zhuān)訪(fǎng)中,DeepScale執行長(cháng)Forrest Iandola提出其不可持續的理由,是因為AI硬件設計師所持有的許多常見(jiàn)假設已經(jīng)過(guò)時(shí)。隨著(zhù)AI應用日益增多,AI供貨商從中積累更多的經(jīng)驗,這導致不同的AI任務(wù)開(kāi)始需求不同的技術(shù)方法。如果事實(shí)的確如此,AI使用者購買(mǎi)AI技術(shù)的方式將會(huì )改變,供貨商也必將做出回應。

20191008NT31P1 

DeepScale執行長(cháng)Forrest Iandola

Iandola表示,就拿神經(jīng)網(wǎng)絡(luò )架構搜尋(NAS)為例,其快速發(fā)展不僅加快優(yōu)化()的搜尋過(guò)程,并降低這一過(guò)程的成本。他相信有一種方法可以“在目標任務(wù)和目標運算平臺上建立最低延遲、最高精準度的,”而不是依賴(lài)于更大的芯片來(lái)處理所有的AI任務(wù)。

Iandola設想未來(lái)AI芯片或傳感器系統(如計算機視覺(jué)、雷達或光達)供貨商不僅提供硬件,而且還會(huì )提供自己的高速、高效的——為應用而設計的DNN架構。任何供貨商都會(huì )為不同的運算平臺匹配各自所需的DNN,如果事實(shí)真是如此,那AI競賽中的所有賭注都將失效。

需要明確的是,目前無(wú)論是芯片公司還是傳感器供貨商都沒(méi)有提出上述前景。甚至很少有人在特定硬件上運作有針對性AI任務(wù)的可能性。

Iandola及其DeepScale團隊最近設計了一系列DNN模型,稱(chēng)為“SqueezeNAS”。在最近的一篇報告中,他們聲稱(chēng),當在目標平臺上搜尋延遲時(shí),SqueezeNAS“可以建立更快、更準確的模型”。這篇報告推翻了AI小區先前對NAS、乘積累加(MAC)運算和將ImageNet精確度應用于目標任務(wù)時(shí)所做的一些假設。

DeepScale于2015年由Iandola和Kurt Keutzer教授共同創(chuàng )立,是一家位于加州山景城的新創(chuàng )公司,致力于開(kāi)發(fā)“微型DNN”。兩位聯(lián)合創(chuàng )始人曾在加州大學(xué)柏克萊大學(xué)分校共事,DeepScale因其快速高效的DNN研究而在科學(xué)界備受推崇。

手工設計(Manual designs)

要想真正理解機器學(xué)習在計算機視覺(jué)方面的最新進(jìn)展的意義,需要了解其發(fā)展歷史。

還記得AlexNet網(wǎng)絡(luò )結構模型在2012年贏(yíng)得ImageNet影像分類(lèi)競賽嗎?這為研究人員打開(kāi)了競爭的大門(mén),讓他們專(zhuān)注于ImageNet研究,并尋找能夠在計算機視覺(jué)任務(wù)上達到最高精準度的DNN,以此開(kāi)展競爭。

20191008NT31P2 

ImageNet分類(lèi)錯誤統計。(數據源:ResearchGate)

通常,這些計算機視覺(jué)研究人員依靠專(zhuān)家工程師,他們會(huì )手工設計快速且高精準度的DNN架構。

從2012年到2016年,他們提高了計算機視覺(jué)的準確性,但都是透過(guò)大幅增加執行DNN所需資源來(lái)實(shí)現這一目標。Iandola解釋?zhuān)?,贏(yíng)得2014年ImageNet比賽冠軍的VGGNet,其使用的運算量是AlexNet的10倍,參數是AlexNet的2倍。

到2016年,學(xué)術(shù)研究界發(fā)現利用增加DNN的資源需求來(lái)提高準確性“不可持續”。SqueezeNet便是研究人員尋找的眾多替代方案之一,由Iandola及其同事在2016年發(fā)表,它展示出在微小預算(低于5MB)參數下ImageNet的“合理的準確性”。

Squeezenet引發(fā)了兩個(gè)重大變化。相對于SqueezeNet和其他早期運算而言,MobileNetV1能夠大幅度減少MAC的數量,Shufflenetv1是為行動(dòng)端CPU實(shí)現低延遲而優(yōu)化的DNN。

利用機器學(xué)習改善機器學(xué)習

如前所述,所有這些先進(jìn)DNN都是透過(guò)手工設計和調整神經(jīng)網(wǎng)絡(luò )架構開(kāi)發(fā)而成。由于手工流程需要專(zhuān)業(yè)的工程師大量的除錯,這很快就成為一個(gè)成本太高、耗時(shí)太久的提議。

因而基于機器學(xué)習,實(shí)現人工神經(jīng)網(wǎng)絡(luò )設計自動(dòng)化的理念,NAS應運而生。NAS是一種搜尋最佳神經(jīng)網(wǎng)絡(luò )架構的算法,并改變了AI格局。Iandola稱(chēng),“到2018年,NAS已經(jīng)開(kāi)始構建能夠以較低延遲運行的DNN,并且比以前手工設計的DNN產(chǎn)生更高的準確性?!?/p>

強化學(xué)習(Reinforcement Learning)

隨后,計算機視覺(jué)界開(kāi)始使用基于機器學(xué)習的強化方法——強化學(xué)習。換句話(huà)說(shuō),“機器學(xué)習得到回饋來(lái)改善機器學(xué)習,”Iandola解釋。在基于強化學(xué)習的NAS下,未經(jīng)訓練的強化學(xué)習獲得建議,指定層數和參數來(lái)訓練DNN架構。一旦對DNN進(jìn)行訓練,訓練運作的結果將作為回饋,從而推動(dòng)強化學(xué)習執行更多DNN來(lái)展開(kāi)訓練。

經(jīng)證明,基于強化學(xué)習的NAS是有效的。Google MnasNet就是一個(gè)很好的例子,它在ImageNet延遲和準確性方面都優(yōu)于ShuffleNet。但它也有一個(gè)關(guān)鍵的弱點(diǎn):成本太高?;趶娀瘜W(xué)習的搜尋通常需要數千個(gè)GPU天(GPU day),以訓練數百乃至數千個(gè)不同的DNN,才能生成理想的設計?!癎oogle負擔得起,”Iandola表示,但大多數其他公司負擔不起。

現實(shí)地說(shuō),一個(gè)基于強化學(xué)習的NAS要訓練一千個(gè)DNN,每個(gè)DNN通常需要一個(gè)GPU天??紤]到目前亞馬遜(Amazon)云端服務(wù)平臺的價(jià)格,Iandola估計,一個(gè)使用基于強化學(xué)習的NAS搜尋所花費的云端運算時(shí)間可能耗資高達7萬(wàn)美元。

超級網(wǎng)絡(luò )(Supernetwork)

在這種情況下,去年底出現了一種新的NAS類(lèi)型,稱(chēng)為基于“超級網(wǎng)絡(luò )”的搜尋。它的典型代表包括FBNet(Facebook柏克萊網(wǎng)絡(luò ))和SqueezNet。

20191008NT31P3 

搜尋時(shí)間減少100倍。(數據源:DeepScale)

Iandola解釋?zhuān)骸俺壘W(wǎng)絡(luò )采用一步到位的方法,而不是培訓1,000個(gè)獨立的DNN?!崩?,一個(gè)DNN有20個(gè)模塊,每個(gè)模塊有13個(gè)選項。若為每個(gè)模塊選擇一個(gè)最喜歡的選項,“你正在以10個(gè)DNN訓練運作花費為代價(jià),一次性訓練一個(gè)匯集了千兆種DNN設計的DNN,”Iandola解釋。

結果顯示,基于超級網(wǎng)絡(luò )的NAS可以在10個(gè)GPU天的搜尋時(shí)間內建立DNN,其延遲和準確性?xún)?yōu)于MnasNet?!斑@讓搜尋成本從7萬(wàn)多美元減少到大約700美元的亞馬遜云端服務(wù)GPU時(shí)間,”Iandola說(shuō)。

“10個(gè)GPU天”的搜尋時(shí)間相當于在一臺如衣柜般大小的8 GPU機器上花費一天的時(shí)間,”Iandola解釋。

20191008NT31P4

基于強化學(xué)習與基于超級網(wǎng)絡(luò )的NAS比較。(數據源:DeepScale)

過(guò)時(shí)的假設

機器學(xué)習的簡(jiǎn)短歷史向我們展示神經(jīng)結構搜尋的出現如何為計算機視覺(jué)研究奠定基礎。但是在這個(gè)過(guò)程中,它也反駁了研究團體早期的一些假設,Iandola指出。

那么,哪些假設需要糾正呢?

Iandola稱(chēng),大多數AI系統設計者認為,ImageNet分類(lèi)中最精確的神經(jīng)網(wǎng)絡(luò )可以為目標任務(wù)提供最精確的骨干網(wǎng)絡(luò )。但計算機視覺(jué)包括許多AI任務(wù)——從目標檢測、分割和3D空間到目標追蹤、距離估計和自由空間等?!安⒎撬腥蝿?wù)都是平等的,”Iandola強調。

ImageNet的準確性與目標任務(wù)的準確性沒(méi)有太緊密的關(guān)聯(lián)?!斑@沒(méi)法保證?!彼f(shuō)。

來(lái)看由Iandola團隊創(chuàng )建的SqueezeNet。Iandola解釋?zhuān)@是一個(gè)小型的神經(jīng)網(wǎng)絡(luò ),它的ImageNet分類(lèi)精準度明顯低于VGG,但在“用于辨識一組影像中相似斑塊的任務(wù)”時(shí),它比VGG更準確。

隨著(zhù)分類(lèi)任務(wù)達到極限,Iandola堅信是時(shí)候為不同的任務(wù)設計不同的神經(jīng)網(wǎng)絡(luò )了。

另一個(gè)普遍的假設是“在目標運算平臺上減少MAC將產(chǎn)生更低的延遲?!比欢?,最近的研究說(shuō)明,減少MAC與減少延遲并無(wú)太大關(guān)聯(lián)?!皳碛休^少MAC的神經(jīng)網(wǎng)絡(luò )并不總是能夠實(shí)現較低的延遲,”Iandola指出。

在Iandola的SqueezeNAS報告中,他堅持認為,不僅僅是不同的AI任務(wù)需要不同的DNN。為目標運算平臺(如CPU、GPU或TPU的特定版本)選擇合適的DNN也非常重要。

例如,他引用了為不同智能型手機優(yōu)化網(wǎng)絡(luò )的FBNet作者的話(huà)。他們發(fā)現DNN在iPhonex上運作得很快,但在三星Galaxy S8上執行得很慢。在報告中,Iandola的團隊總結,“即使MAC的數量保持不變,不同的卷積維數也會(huì )根據處理器和核心實(shí)現決定運作得更快或更慢?!?/p>

對自動(dòng)駕駛的影響

今天,DeepScale已經(jīng)與多家汽車(chē)供貨商建立了合作關(guān)系,包括Visteon、Hella Aglaia Mobile Vision GmbH和其他未透露名稱(chēng)的公司。DeepScale一直在開(kāi)發(fā)微型DNN,該公司聲稱(chēng),他們在保證最先進(jìn)的性能的同時(shí),它們需要的運算量更少。

在SqueezNas的報告中,Iandola和他的同事解釋?zhuān)鋱F隊使用基于超級網(wǎng)絡(luò )的NAS來(lái)設計一個(gè)用于語(yǔ)義分割的DNN,用于辨識道路、車(chē)道、車(chē)輛和其他物體的精確形狀等具體任務(wù)?!拔覀儗AS系統進(jìn)行配置,以?xún)?yōu)化Cityscapes語(yǔ)義分割數據集的高精準度,同時(shí)在小型車(chē)輛級運算平臺上實(shí)現低延遲?!?/p>

隨著(zhù)SqueezNAS的發(fā)展,DeepScale對自己的定位是:在優(yōu)化DNN、AI硬件和特定AI任務(wù)之間的協(xié)同關(guān)系方面成為先行者。

隨著(zhù)AI芯片即將席卷市場(chǎng),Iandola認為系統設計師必須明智地選擇加速器。他們應該確切地考慮硬件應該執行哪種AI任務(wù),以及硬件加速器應該在哪種神經(jīng)網(wǎng)絡(luò )上運作。

安全攝影機、自動(dòng)駕駛車(chē)和智能型手機都將使用AI芯片??紤]到每個(gè)系統所需的速度、準確性、延遲和應用程序大不相同,確定合適的硬件和NAS就變得至關(guān)重要。

Iandola表示,對于OEM車(chē)廠(chǎng)來(lái)說(shuō),要把一個(gè)測試版自動(dòng)駕駛車(chē)變成一個(gè)商業(yè)產(chǎn)品,必須把目前儲存在自動(dòng)駕駛車(chē)后行李箱中的刀鋒服務(wù)器抽取出來(lái)。Iandola預測,汽車(chē)制造商可能會(huì )要求硬件芯片公司提供適合硬件平臺的優(yōu)化DNN。

對于Nvidia這樣的公司來(lái)說(shuō),這可能不成問(wèn)題,因為它的GPU得到了一個(gè)大型軟件生態(tài)系統的支持。然而,大多數其他AI硬件供貨商將會(huì )嚇出一身冷汗。

此外,隨著(zhù)一系列新的傳感器——攝影機、光達和雷達——被設計進(jìn)自動(dòng)駕駛車(chē),汽車(chē)OEM將面臨一些殘酷的現實(shí),例如,每個(gè)傳感器可能使用不同類(lèi)型的神經(jīng)網(wǎng)絡(luò )。另一個(gè)例子是,不同品牌設計的光達使用不同的AI硬件。Iandola指出,“今天,無(wú)論是傳感器供貨商還是AI處理器公司都沒(méi)有提供針對其硬件進(jìn)行優(yōu)化推薦的神經(jīng)網(wǎng)絡(luò )?!?/p>

Iandola表示,OEM車(chē)廠(chǎng)和一級零組件供貨商將開(kāi)始要求優(yōu)化DNN,以匹配特定硬件和AI任務(wù),這將無(wú)法避免?!拔覀兿嘈?,使用NAS優(yōu)化目標運算平臺上的低延遲變得越來(lái)越重要?!?/p>

隨著(zhù)基于超級網(wǎng)絡(luò )的NAS出現,NAS的成本已經(jīng)在下降。因此,現在可能是時(shí)候讓硬件供貨商開(kāi)始尋找自己的優(yōu)化DNN。當被問(wèn)及DeepScale是否計劃透過(guò)合作、授權或為AI硬件公司開(kāi)發(fā)優(yōu)化DNN來(lái)填補這一缺口時(shí),Iandola說(shuō),“我們還沒(méi)有真正考慮過(guò)這個(gè)問(wèn)題?!?/p>



評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>