<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > 對通用骨架提取方法的改進(jìn)

對通用骨架提取方法的改進(jìn)

發(fā)布人:地平線(xiàn)開(kāi)發(fā)者 時(shí)間:2024-10-27 來(lái)源:工程師 發(fā)布文章
01 骨架提取的任務(wù)引入


骨架(或中軸線(xiàn))具有在二進(jìn)制形狀和自然圖像中提供緊湊而有意義的對象表示的潛力(以下簡(jiǎn)稱(chēng)為“形狀”和“圖像”),適用于圖像表示和各種多媒體應用。在實(shí)踐中,對象骨架通常以圖形格式編碼,即“骨架圖”,以便于骨架修剪、匹配、分類(lèi)和分析任務(wù)。為了術(shù)語(yǔ)的清晰,通常將各種骨架圖組件定義如下:


1) 端點(diǎn):骨架點(diǎn)只有一個(gè)相鄰點(diǎn)。

2) 交叉點(diǎn):有三個(gè)或更多相鄰點(diǎn)。

3) 連接點(diǎn):既不是端點(diǎn)也不是交叉點(diǎn)。

4) 骨架分支:兩個(gè)直接連接的骨架點(diǎn)之間的連接點(diǎn)序列。



圖片



02 相關(guān)方法與現存問(wèn)題


傳統的骨架提取方法主要依賴(lài)于圖形操作。近年來(lái),由于卷積神經(jīng)網(wǎng)絡(luò )(CNN)方法的崛起,采用像素級二進(jìn)制分類(lèi)來(lái)處理這個(gè)問(wèn)題取得了顯著(zhù)的改進(jìn)。盡管這些方法取得了部分進(jìn)展,但仍然存在明顯的質(zhì)量和魯棒性問(wèn)題。例如,輸出的骨架分支可能出現噪聲、不連貫、不完整,并且對變形不夠魯棒。


BlumNet 的引入有效地緩解了這些缺點(diǎn)。具體而言,它將骨架圖分解為有組織的組件,通過(guò)將任務(wù)分割為涉及圖形組件檢測和組裝的獨立過(guò)程來(lái)實(shí)現這一目標。


盡管這項任務(wù)是優(yōu)雅而有效的,但仍然存在一些不足之處,比如在細節方面的精度不足和推理時(shí)間過(guò)長(cháng)。向分解和重構骨架提取過(guò)程的轉變提出了新的挑戰,特別是在組件檢測的準確性和在分解后的數據集上進(jìn)行訓練的有效性方面。高分辨率圖像凸顯了這些問(wèn)題,特別是在線(xiàn)交叉點(diǎn)處,預測精度出現了不足,這表面了在處理高分辨率數據的細節時(shí)存在問(wèn)題。


BlumNet 采用了基于 Transformer 的架構(如下圖所示)來(lái)進(jìn)行輸出特征的編碼和解碼,然而,未能充分設計 Transformer 以更好地匹配輸入和輸出數據的具體性。因此,對檢測模型進(jìn)行適當修改可以實(shí)現更高的準確性和更穩健的結果。此外,盡管與過(guò)去的工作相比,BlumNet 可以獲得更高的準確性,但其推理時(shí)間更長(cháng),可能并不適用于所有應用情景。


圖片



03 預測任務(wù)的轉移


由于高分辨率圖像中信息的豐富性,對骨架細節的預測特別容易受到周?chē)鷱碗s信息的干擾。這種干擾可能導致鋸齒狀或有問(wèn)題的骨架,表明在這種情況下無(wú)法獲得精確的預測。為了有效處理這些復雜信息,模型需要更多的候選選項,以從中選擇更準確的一個(gè)。因此,增加預測數量是解決這個(gè)問(wèn)題的直觀(guān)選擇。


此外,考慮到一個(gè)極端的情況,即圖像上的每個(gè)像素最初都覆蓋線(xiàn)的端點(diǎn),問(wèn)題就變成了一個(gè)像素級的二進(jìn)制分類(lèi)問(wèn)題。然而,由于模型在開(kāi)始時(shí)無(wú)法準確區分正確的檢測對象,在匈牙利匹配的影響下,錯誤的對象可能會(huì )移向骨架。因此,在訓練的后期階段,大量的預測結果將累積在目標骨架的邊緣周?chē)?。在這一點(diǎn)上,模型只需要從這些結果中進(jìn)行選擇。這種方法與以前的方法的不同之處在于,它將分類(lèi)區域從整個(gè)圖像縮小到骨架附近。


以上分析揭示了更多的預測輸出也會(huì )導致訓練過(guò)程的變化。在訓練的初期階段,學(xué)習的重點(diǎn)是預測點(diǎn)的精確位置。隨著(zhù)訓練的進(jìn)行,預測點(diǎn)逐漸接近真實(shí)值,訓練的重點(diǎn)將轉移到區分預測結果是否在骨架上。從以前的工作中得知,像素級的二進(jìn)制分類(lèi)可以在整個(gè)圖像上取得良好的結果。因此,我們認為在骨架附近對更多的候選選項進(jìn)行分類(lèi)將減少模型預測的難度。后續的實(shí)驗證實(shí)了這一分析。



04 實(shí)驗結果


圖片


上述四幅圖像分別代表在訓練 20 個(gè)周期、50 個(gè)周期、100 個(gè)周期和 200 個(gè)周期的情況下,使用 1000 個(gè)查詢(xún)時(shí)的所有預測輸出線(xiàn)。以下四個(gè)圖顯示了在 4000 個(gè)查詢(xún)的情況下的輸出情況。圖中的藍色點(diǎn)是成對出現的,因為這些點(diǎn)對代表了預測線(xiàn)的兩個(gè)端點(diǎn)。在圖中呈現點(diǎn)而不是線(xiàn)段使得觀(guān)察預測分布更加方便。


模型訓練的過(guò)程可以看作是將離散點(diǎn)聚集到骨架上的過(guò)程。在 1000 個(gè)查詢(xún)的情況下,最終預測的點(diǎn)大部分集中在骨架上,但在 4000 個(gè)查詢(xún)的情況下,仍然有大量點(diǎn)散布在圖上的各個(gè)區域。


在計算損失之前進(jìn)行匈牙利匹配的前提下,骨架上鄰近點(diǎn)的數量越多,在訓練過(guò)程中預測點(diǎn)與目標點(diǎn)之間的距離就越小。這有助于訓練點(diǎn)的位置。更多的預測點(diǎn)會(huì )使得訓練模型更難以識別輸出,但從直覺(jué)上看,這似乎比前者更容易學(xué)習。


圖片


圖中繪制了不同查詢(xún)情況下最重要的兩種損失的曲線(xiàn)。IsBranch Loss 限制了輸出線(xiàn)的置信度,而 Lines Loss 則指導輸出線(xiàn)朝向骨架。與我們的分析一致,增加查詢(xún)數量有效地降低了 Lines Loss。即使要訓練的查詢(xún)數量增加,模型只需要對更準確的點(diǎn)分配更高的置信度。


因此,isBranch Loss 最初會(huì )增加,但隨著(zhù)訓練的進(jìn)行,損失會(huì )減小到接近較少查詢(xún)結果的結果??梢钥闯?,增加查詢(xún)數量將任務(wù)的重點(diǎn)從定位轉移到分類(lèi)。


圖片


利用 SK1491 數據集,我們比較了六種不同 query 數量的情況下的結果。如表所示,在使用 VGG16 和 Swin-base 骨干網(wǎng)絡(luò )的情況下,在 SK1491 數據集上達到了最佳性能,分別獲得了 0.805 和 0.836 的得分。另一方面,在使用 Resnet50 和 3000 個(gè)查詢(xún)的條件下,獲得的最佳性能為 0.804。


可以觀(guān)察到,初始時(shí),隨著(zhù)查詢(xún)數量的增加,準確性顯著(zhù)提高。在達到 1000 個(gè)查詢(xún)后,準確性提升的速度減緩,但仍然存在穩定的提升?;?CNN 的骨干網(wǎng)絡(luò )通常受到查詢(xún)數量的影響,需要一定數量的查詢(xún)才能達到最佳結果。相比之下,Swin-Transformer 即使在較少的 query 數量下也能表現良好。


圖片


上圖是不同查詢(xún)下圖像骨架提取的比較。結果在紅色框內放大顯示。



05 總結


增加預測數量顯著(zhù)提高了 BlumNet 內的訓練效果和檢測準確性。最初,模型專(zhuān)注于定位任務(wù),隨后過(guò)渡到骨架附近的細節導向預測通過(guò)分類(lèi)任務(wù)。這使得模型能夠有效處理高分辨率圖像中的復雜信息,從而實(shí)現更準確的骨架提取。通過(guò)調整輸入查詢(xún),增強了 BlumNet 對不同操作條件的適應能力。


*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: 算法 自動(dòng)駕駛

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>