<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > Fast YOLO:用于實(shí)時(shí)嵌入式目標檢測(附論文下載)

Fast YOLO:用于實(shí)時(shí)嵌入式目標檢測(附論文下載)

發(fā)布人:CV研究院 時(shí)間:2021-10-08 來(lái)源:工程師 發(fā)布文章

目標檢測被認為是計算機視覺(jué)領(lǐng)域中最具挑戰性的問(wèn)題之一,因為它涉及場(chǎng)景中對象分類(lèi)和對象定位的組合。今天分享這個(gè)框架有點(diǎn)陳舊,但精髓!

一、前言

目標檢測被認為是計算機視覺(jué)領(lǐng)域中最具挑戰性的問(wèn)題之一,因為它涉及場(chǎng)景中對象分類(lèi)和對象定位的組合。最近,與其他方法相比,深度神經(jīng)網(wǎng)絡(luò ) (DNN) 已被證明可以實(shí)現卓越的目標檢測性能,其中YOLOv2是基于DNN的最先進(jìn)技術(shù)之一。

1.jpg

目標檢測方法在速度和準確性方面。盡管YOLOv2可以在強大的GPU上實(shí)現實(shí)時(shí)性能,但在計算能力和內存有限的嵌入式計算設備上利用這種方法進(jìn)行視頻中的實(shí)時(shí)目標檢測仍然非常具有挑戰性。

二、概要

在今天分享中,有研究者提出了一個(gè)名為Fast YOLO的新框架,這是一個(gè)快速的You Only Look Once框架,它可以加速YOLOv2以便能夠以實(shí)時(shí)方式在嵌入式設備上執行視頻中的目標檢測。

首先,利用進(jìn)化深度智能框架來(lái)進(jìn)化YOLOv2網(wǎng)絡(luò )架構,并產(chǎn)生一個(gè)優(yōu)化的架構(這里稱(chēng)為O-YOLOv2),其參數減少了2.8倍,IOU下降了約2%。為了在保持性能的同時(shí)進(jìn)一步降低嵌入式設備的功耗,在提出的Fast YOLO框架中引入了一種運動(dòng)自適應推理方法,以降低基于時(shí)間運動(dòng)特性的O-YOLOv2深度推理的頻率。實(shí)驗結果表明,與原始YOLOv2相比,所提出的Fast YOLO框架可以將深度推理的數量平均減少38.13%,視頻中目標檢測的平均加速約為3.3倍,導致Fast YOLO運行在Nvidia Jetson TX1嵌入式系統上平均約為18FPS。

三、新框架

2.png

提出的Fast YOLO框架分為兩個(gè)主要部分:i)優(yōu)化的YOLOv2架構,以及ii運動(dòng)自適應推理(見(jiàn)上圖)。對于每個(gè)視頻幀,由帶有參考幀的視頻幀組成的圖像堆棧被傳遞到1×1卷積層。卷積層的結果是一個(gè)運動(dòng)概率圖,然后將其送入運動(dòng)自適應推理模塊以確定是否需要深度推理來(lái)計算更新的類(lèi)概率圖。正如介紹中提到的,主要目標是引入一個(gè)視頻中的目標檢測框架,該框架可以在嵌入式設備上更快地執行,同時(shí)減少資源使用,從而顯著(zhù)降低功耗。通過(guò)利用這種運動(dòng)自適應推理方法,深度推理的頻率大大降低,并且僅在必要時(shí)執行。

3.jpg

深度神經(jīng)網(wǎng)絡(luò )的主要挑戰之一,尤其是在將它們用于嵌入式場(chǎng)景時(shí),是網(wǎng)絡(luò )架構設計。設計過(guò)程通常由人類(lèi)專(zhuān)家執行,他探索大量網(wǎng)絡(luò )配置,以在建模精度和參數數量方面為特定任務(wù)找到最佳架構。尋找優(yōu)化的網(wǎng)絡(luò )架構目前通常作為超參數優(yōu)化問(wèn)題來(lái)解決,但這種解決問(wèn)題的方法非常耗時(shí),而且大多數方法對于大型網(wǎng)絡(luò )架構來(lái)說(shuō)要么在計算上難以處理,要么導致次優(yōu)解決方案不夠嵌入式使用。

4.jpg

例如,超參數優(yōu)化的一種常用方法是網(wǎng)格搜索,其中檢查大量不同的網(wǎng)絡(luò )配置,然后選擇最佳配置作為最終的網(wǎng)絡(luò )架構。然而,為視頻中的目標檢測而設計的深度神經(jīng)網(wǎng)絡(luò )(如YOLOv2)具有大量參數,因此在計算上難以搜索整個(gè)參數空間以找到最佳解決方案。

5.jpg

因此,研究者沒(méi)有利用超參數優(yōu)化方法來(lái)獲得基于YOLOv2的最佳網(wǎng)絡(luò )架構,而是利用專(zhuān)為提高網(wǎng)絡(luò )效率而設計的網(wǎng)絡(luò )優(yōu)化策略。特別是,研究者利用進(jìn)化深度智能框架來(lái)優(yōu)化網(wǎng)絡(luò )架構,以合成滿(mǎn)足嵌入式設備內存和計算能力限制的深度神經(jīng)網(wǎng)絡(luò )。

6.jpg

為了進(jìn)一步降低處理器單元的功耗,用于視頻中的嵌入式目標檢測,研究者利用了這樣一個(gè)事實(shí),即并非所有捕獲的視頻幀都包含唯一信息,因此不需要對所有幀進(jìn)行深度推理。因此,研究者引入了一種運動(dòng)自適應推理方法來(lái)確定特定視頻幀是否需要深度推理。通過(guò)在必要時(shí)使用前面介紹的O-YOLOv2網(wǎng)絡(luò )進(jìn)行深度推理,這種運動(dòng)自適應推理技術(shù)可以幫助框架減少對計算資源的需求,從而顯著(zhù)降低功耗系統以及處理速度的提高。

四、實(shí)驗

原始YOLOv2網(wǎng)絡(luò )架構與優(yōu)化后的YOLOv2之間的架構和性能比較

7.jpg

提出的Fast YOLO、O-YOLOv2和原始YOLOv2在Nvidia Jetson TX1嵌入式系統上運行的平均運行時(shí)性能和深度推理頻率。

8.jpg

*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>