<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > AI偽裝目標檢測:讓變色龍現出原形!

AI偽裝目標檢測:讓變色龍現出原形!

發(fā)布人:數據派THU 時(shí)間:2022-02-13 來(lái)源:工程師 發(fā)布文章
在自然界中許多生物都具有“偽裝”的本領(lǐng),變色龍能夠根據周遭的環(huán)境來(lái)調整自身顏色以達到其“偽裝”的目的;獅子將身體“偽裝”在草叢之中而伺機等待獵物的靠近;蝴蝶躺在與自身顏色相近的樹(shù)干上一動(dòng)不動(dòng)以躲過(guò)天敵的傷害。生物學(xué)家將這類(lèi)偽裝方式稱(chēng)為背景匹配,即動(dòng)物為避免被識別,會(huì )嘗試改變其自身顏色以“完美”地融入周?chē)h(huán)境。


圖片
如今,隨著(zhù)CV領(lǐng)域在深度學(xué)習方向上的發(fā)展,學(xué)者們把目光投向了目標檢測這一領(lǐng)域。與通用目標檢測以及顯著(zhù)性目標檢測不一樣,通用目標檢測與顯著(zhù)性目標檢測中目標與背景均有較為明顯的差異性,這種差異通常情況下通過(guò)人眼也能較容易地分辨出來(lái)。但偽裝目標檢測中偽裝目標與背景之間存在高度的相似性,因此關(guān)于偽裝目標的檢測顯得更具挑戰性。


圖片
在我看來(lái),偽裝目標的檢測與通用目標檢測有所區別,但和顯著(zhù)性目標檢測有點(diǎn)類(lèi)似,更多的是做語(yǔ)義分割,但不同于語(yǔ)義分割,偽裝目標里的分割時(shí)一個(gè)二分類(lèi)的問(wèn)題(即前景和背景的分割)顯著(zhù)性目標檢測把輸入圖像分為顯著(zhù)物體和背景,偽裝目標是分割為偽裝目標和背景。鑒于顯著(zhù)性目標和偽裝目標研究的相似性,于是我將顯著(zhù)性目標與偽裝目標合在一起進(jìn)行研究。特征提取網(wǎng)絡(luò )與特征融合技術(shù)是我研究的重點(diǎn)。
關(guān)于偽裝目標研究可應用的領(lǐng)域十分廣闊,除了其學(xué)術(shù)價(jià)值外,偽裝物體檢測還有助于推動(dòng)諸如軍事上偽裝隱蔽目標的搜索探測、醫學(xué)領(lǐng)域上病情的判斷以及農業(yè)遙感中蝗蟲(chóng)的入侵等等。
目前,由于缺乏規模足夠大的數據集,偽裝物體檢測的研究還不夠深入,所以目前所有的研究都是基于由南開(kāi)大學(xué)團隊為COD任務(wù)專(zhuān)門(mén)構建出的COD10K數據集。
圖片


本次涉及三個(gè)方法,前兩個(gè)是針對顯著(zhù)性目標檢測所提出的,分別是EGNet和PFANet;而后面的是專(zhuān)門(mén)針對于偽裝目標檢測提出的SINet。


首先對EGNet進(jìn)行介紹,EGNet,也稱(chēng)為邊緣引導網(wǎng)絡(luò ),顧名思義,我們知道他在保護邊緣信息上做了功夫,整個(gè)方法可以分為三個(gè)步驟,第一步是提取邊緣特征(PSFEM),第二步是將局部的邊緣信息和全局的位置信息聚合(NLSEM),最后一步則是將特征進(jìn)行平衡,得到我們想要的最后的特征(O2OGM)。


圖片
下面我們來(lái)詳細看一下各個(gè)結構,首先是PSFEM。EGNet采用的結構是U-net的結構,將六個(gè)特征層,依次進(jìn)行卷積的操作,然后再經(jīng)過(guò)一個(gè)卷積層。從Conv3-3、Conv4-3、Conv5-3、Conv6-3四條路徑分別提取目標不同層次的特征信息。其中從骨架最后一層的Conv6-3提取的特征卷積后與邊緣信息結合用于O2OGM模塊;Conv3-3、Conv4-3、Conv5-3、Conv6-3之間都一個(gè)從深層到上一淺層的連接(從Conv6-3開(kāi)始,Conv3-3結束),用來(lái)豐富特征信息。


圖片
然后是NLSEM模塊,采用骨架中的Conv-2-2提取目標的邊緣特征。不使用Conv1-2是因為其太接近輸入層(噪聲多)并且其感受野較小,不使用Conv3-3及更深的層提取邊緣特征是因為他們所得到的feature map包含的邊緣信息較少,他們更多包含的是語(yǔ)義信息。
圖片


最后是O2OGM模塊,將Conv6-3提取的顯著(zhù)性目標特征信息與Conv2-2提取的邊緣特征結合后的特征分別與Conv3-3、Conv4-3、Conv5-3、Conv6-3每層提取的顯著(zhù)性目標特征進(jìn)行融合,即圖中FF模塊的操作。FF操作很簡(jiǎn)單,就是將高層特征上采樣然后進(jìn)行拼接的操作,就可以達到融合的效果。


圖片
PFANet的結構相對簡(jiǎn)單,采用VGG網(wǎng)絡(luò )作為特征提取網(wǎng)絡(luò ),然后將前兩層特征稱(chēng)為低層特征,后三層特征稱(chēng)為高層特征,對他們采用了不同的方式進(jìn)行特征增強,以增強檢測效果。
圖片

首先是對于高層特征,先是采用了一個(gè)CPFE來(lái)增大感受野,然后再接一個(gè)通道注意力模塊,即完成了對高層特征的特征增強(這里的這個(gè)CPFE,其實(shí)就是ASPP)。


圖片
然后再對經(jīng)過(guò)了CPFE后的高層特征使用通道注意力(CA)。
以上即是高層特征的增強方法,而對于低層特征,處理得則更為簡(jiǎn)單,只需要使用空間注意力模塊(SA),即可完成。
圖片


整個(gè)PFANet的網(wǎng)絡(luò )結構很清晰,如下圖所示。


圖片

介紹完EGNet和PFANet兩種方法以后,就剩下SINet了。SINet的思路來(lái)自于19年的一篇CVPR的文章《.Cascaded partial decoder for fast and accurate salient object detection》。這篇文章里提出了CPD的這樣一個(gè)結構,具體的可以取搜索一下這篇論文,詳細了解一下。


接下來(lái)我將介紹一個(gè)用于偽裝目標檢測的網(wǎng)絡(luò )SINet。假設你是一頭饑腸轆轆的雄獅,此刻你掃視著(zhù)周?chē)?,視線(xiàn)突然里出現了兩匹斑馬,他們就是你今天的獵物,美食。確定好了目標之后,那么就開(kāi)始你的獵殺時(shí)刻。所以整個(gè)過(guò)程是你先掃視周?chē)?,我們稱(chēng)之為搜索,然后,就是確認目標,開(kāi)始獵殺,我們稱(chēng)之為確認。我們的SINet就是這樣的一個(gè)結構,他分為搜索和確認兩個(gè)模塊,前者用于搜索偽裝目標,后者用于精確定位去檢測他。


圖片
我們現在就具體來(lái)看看我們的SINet到底是怎么一回事。首先,我們都知道低層特征有著(zhù)較多的空間細節,而我們的高層特征,卻有著(zhù)較多的語(yǔ)義信息。所以低層的特征我們可以用來(lái)構建目標區域,而高層特征我們則可以用來(lái)進(jìn)行目標定位。我們將這樣一張圖片,經(jīng)過(guò)一個(gè)ResNet的特征提取器。按照我們剛才的說(shuō)法,于是我們將前兩層稱(chēng)為低層特征,最后兩層稱(chēng)之為高層特征,而第三層我們稱(chēng)之為中層特征。那么有了這樣的五層特征圖,東西已經(jīng)給我們了?我們該怎么去利用好這些東西呢?


圖片
首先是我們的搜索模塊,通過(guò)特征提取,我們得到了這么一些特征,我們希望能夠從這些特征中搜索到我們想要的東西。那我們想要的是什么呢?自然就是我們的偽裝線(xiàn)索了。所以我們需要對我們的特征們做一些增強的處理,來(lái)幫助我們完成搜索的這樣一個(gè)任務(wù)。而我們用到的方法就是RF。我們來(lái)看一下具體是怎么樣實(shí)現的。首先我們把整個(gè)模塊分為5個(gè)分支,這五個(gè)分支都進(jìn)行了1×1的卷積降維,我們都知道,空洞卷積的提出,其目的就是為了增大感受野,所以我們對第一個(gè)分支進(jìn)行空洞數為3的空洞卷積,對第二個(gè)分支進(jìn)行空洞數為5的空洞卷積,對第3個(gè)分支進(jìn)行空洞數為7的空洞卷積,然后將前四個(gè)分支的特征圖拼接起來(lái),這時(shí)候,我們再采用一個(gè)1×1卷積降維的操作,與第五個(gè)分支進(jìn)行相加的操作,最后輸出增強后的特征圖。
圖片
這個(gè)RF的結構來(lái)自于ECCV2018的一篇論文《 Receptive field block net for accurate and fast object detection》,其作用就是幫助我們獲得足夠的感受野。
我們用RF對感受野增大來(lái)進(jìn)行搜索,那么搜索過(guò)后,我們得到了增強后的候選特征。我們要從候選特征得到我們最后要的偽裝目標的檢測結果,這里我們用到的方法是PDC模塊(即是部分解碼組件)。
具體操作是這樣的,所以接下來(lái)就應該是對它們進(jìn)行處理了逐元素相乘方式來(lái)減少相鄰特征之間的差距。我們把RF增強后的特征圖作為輸入,輸入到網(wǎng)絡(luò )里面。首先對低層的進(jìn)行一個(gè)上采樣,然后進(jìn)行3×3的卷積操作(這里面包含了卷積層,BN層還有Relu層),然后與更高一層的特征圖進(jìn)行乘法的這樣一個(gè)操作,我們?yōu)槭裁词褂弥鹪叵喑四??因為逐元素相乘方式能減少相鄰特征之間的差距。然后我們再與輸入的低層特征進(jìn)行拼接。
圖片
我們前面提到了,我們利用增強后的特征通過(guò)PDC得到了我們想要得到的檢測結果,但這樣的一個(gè)結果足夠精細嗎?其實(shí),這樣得到的檢測結果是比較粗略的。這是為什么呢?這是因為我們的特征之間并不是有和偽裝檢測不相關(guān)的特征?對于這樣的多余的特征,我們要消滅掉。我們將前面得到的檢測圖稱(chēng)之為  ,而我們要得到精細的結果圖  ,就得使用我們的注意力機制了。這里我們引入了搜索注意力,具體是怎么實(shí)現的呢?大家想一想我們前面把特征分成了低層特征、高層特征還有中層特征。我們平時(shí)一般都叫低層特征和高層特征,很少有提到中層特征的。其實(shí)我們這里這樣叫,是有打算的,我們認為中層特征他既不像低層特征那么淺顯,也不像高層特征那樣抽象,所以我們對他進(jìn)行一個(gè)卷積操作(但是我們的卷積核用的是高斯核函數方差取32,核的尺寸我們取為4,我們學(xué)過(guò)數字圖像處理,都知道這樣的一個(gè)操作能起到一個(gè)濾波的作用,我們的不相關(guān)特征能被過(guò)濾掉)但是有同學(xué)就會(huì )問(wèn)了,那你這樣一過(guò)濾,有用的特征不也過(guò)濾掉了嗎?基于這樣的考慮,我們把過(guò)濾后的特征圖與剛才的這個(gè)  再來(lái)做一個(gè)函數,什么函數呢?就是一個(gè)最大化函數,這樣我們不就能來(lái)突出偽裝圖  初始的偽裝區域了嗎?圖片

SINet整體的框架如圖所示:


圖片

講了這么多,我們最后來(lái)看看實(shí)驗的效果,通過(guò)對這三篇文章的復現,我得到了下面的這樣一些結果。


圖片


可以看出,在精度指標的評價(jià)方面,SINet相比于其他兩種方法都有很大提升,而PFANet模型結構雖然很簡(jiǎn)單,但他的效果也是最差的。


下面我們再看看可視化的效果:


圖片



圖片


*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。

手機電池相關(guān)文章:手機電池修復




關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>