<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > 基于三角測量與稠密化稀疏點(diǎn)的深度估計 (ECCV2020)

基于三角測量與稠密化稀疏點(diǎn)的深度估計 (ECCV2020)

發(fā)布人:計算機視覺(jué)工坊 時(shí)間:2021-07-10 來(lái)源:工程師 發(fā)布文章

論文題目:DELTAS: Depth Estimation by Learning Triangulation And densification of Sparse points (ECCV2020)

數據集和預訓練模型下載地址:在公眾號「計算機視覺(jué)工坊」,后臺回復「DELTAS」,即可直接下載。

一、摘要

多視圖立體匹配(Multi-view Stereo)是一種主動(dòng)式深度探測與單目深度估計實(shí)用化的權衡方法?;诖鷥r(jià)體的方法利用3D卷積網(wǎng)絡(luò )來(lái)提高M(jìn)VS系統的精度。然而這種方法的計算開(kāi)銷(xiāo)很大,很難用于實(shí)際應用。與構建代價(jià)體的方法不同,本文提出一種高效的深度估計方法。具體地,首先進(jìn)行特征點(diǎn)提取與描述子計算;然后進(jìn)行特征點(diǎn)匹配與特征點(diǎn)的三角化;最后通過(guò)CNN來(lái)對稀疏深度圖進(jìn)行稠密化。上述三個(gè)步驟的操作通過(guò)一個(gè)端到端的網(wǎng)絡(luò )框架實(shí)現,在網(wǎng)絡(luò )模型訓練中除了深度圖的監督約束外,還加入了中間2D圖像和3D幾何的監督。實(shí)驗結果證明:文章提出的方法在不同場(chǎng)景下能夠以更低的計算開(kāi)銷(xiāo)來(lái)實(shí)現更精確的深度估計。

二、相關(guān)工作

2.1 特征點(diǎn)檢測與描述

基于稀疏特征點(diǎn)的方法是SLAM或VIO技術(shù)的標準,因為他們速度快、精度高?!跋葯z測再描述”是最常見(jiàn)的稀疏特征提取方法,具體地,首先檢測特征點(diǎn),然后對該特征點(diǎn)周?chē)膲K進(jìn)行描述。描述子封裝了更高級別的信息,這些信息被低級別的關(guān)鍵點(diǎn)所忽略。在深度學(xué)習之前,SIFT和ORB特征點(diǎn)被廣泛用于低級別視覺(jué)任務(wù)的特征匹配描述子。而隨著(zhù)深度學(xué)習的出現,在很多的應用中取代了這些手工設計的特征。近年來(lái),出現了SuperPoint、LIFT和GIFT等相關(guān)工作。

2.2 三角測量

三角測量是指,通過(guò)在兩處觀(guān)察同一點(diǎn)的夾角,確定該點(diǎn)的距離。三角測量最早由高斯提出并應用于測量學(xué)中,他在天文學(xué)、地理學(xué)測量中都有應用。在本文中,主要用三角化來(lái)估計像素點(diǎn)的距離。Samsung 人工智能研究院的研究員于2019年提出了用于多視圖位姿估計的可學(xué)習的三角測量方法[4]??蓪W(xué)習的三角化模塊可以集成到端到端學(xué)習的網(wǎng)絡(luò )中。

2.3 Sparse-to-Dense Depth Estimation

由于深度傳感器探測范圍的限制,Sparse-to-Dense的深度估計方法成為輔助主動(dòng)深度傳感器的一種方式,而且還具有難以檢測區域(比如黑暗和反射物體)深度空洞填補的作用。最早的工作是由MIT的研究人員Fangchang Ma等人提出[2]:《Sparse-to-Dense: Depth Prediction from Sparse Depth Samples and a Single Image》該文章引入了一種新的深度預測方法,用于從RGB圖像和稀疏深度圖中預測稠密深度圖,此方法適用于多傳感器融合和基于特征點(diǎn)方式的SLAM。

三、方法

1.png

如圖1所示,以一幅目標圖像和兩幅輔助圖像為例進(jìn)行方法步驟的說(shuō)明。本文方法大致可以分為三個(gè)步驟。第一步,首先利用類(lèi)似于SuperPoint的網(wǎng)絡(luò )進(jìn)行目標圖像的特征點(diǎn)提取與描述子計算,同時(shí)也為輔助圖像進(jìn)行描述子計算。第二步,根據相對位姿(對極幾何)的關(guān)系確定目標圖像特征點(diǎn)在輔助圖像的空間范圍。然后在搜索空間中采樣描述子,并與目標圖像特征點(diǎn)的描述子進(jìn)行匹配。然后利用SVD奇異值分解的方法進(jìn)行特征點(diǎn)的三角化,最后根據輸出的3D點(diǎn)創(chuàng )建稀疏深度圖。最后一步,稀疏深度圖編碼器輸出的特征圖與RGB圖像編碼器輸出的特征圖用于生成最后的稠密深度圖。

3.1 特征點(diǎn)檢測與描述

2.png

如圖2所示,本文使用類(lèi)似于SuperPoint的網(wǎng)絡(luò )結構進(jìn)行特征點(diǎn)檢測與描述子計算。該網(wǎng)絡(luò )模型有一個(gè)圖像編碼器用于提取圖像特征,并且減小圖像維度。提取的特征送入后續的兩個(gè)特征任務(wù)的****中:用于特征點(diǎn)檢測與特征點(diǎn)描述子計算。原始版本的SuperPoint用于高速視頻幀的姿態(tài)估計,所以圖像編碼器使用的是淺層的VGG網(wǎng)絡(luò )。但是SuperPoint淺層的骨干網(wǎng)絡(luò )并不完全適合于本文的深度估計任務(wù)。因此出于權衡效率和性能的考量,作者使用了ResNet-50編碼器替換了原來(lái)的骨干網(wǎng)絡(luò )。

3.2 特征點(diǎn)匹配與三角化

3.2.1 特征點(diǎn)匹配

3.png

上述步驟進(jìn)行了目標圖像的特征點(diǎn)檢測與所有視圖的描述子計算。一種直接的特征點(diǎn)匹配策略是:將目標圖像特征點(diǎn)的描述子與輔助圖像上所有可能的位置進(jìn)行匹配對應。然而這種策略因為計算量過(guò)大而不能采用??紤]到匹配點(diǎn)的對應滿(mǎn)足對極幾何的關(guān)系,所以我們只在輔助圖像的極線(xiàn)上進(jìn)行搜索。如圖3所示,在理想情況下匹配點(diǎn)會(huì )位于極線(xiàn)上。然而實(shí)際情況中由于相機位姿存在偏差等因素,我們在極限搜索時(shí)會(huì )加上一個(gè)小的偏置??紤]到極線(xiàn)延伸范圍為-∞到+∞,我們將極線(xiàn)范圍限制在可行的深度探測范圍內(如右圖所示)。對于每一幅輔助圖像,目標圖像特征點(diǎn)的描述子沿著(zhù)極線(xiàn)方向與描述子進(jìn)行卷積,可得互相關(guān)圖:

4.png

3.2.2 特征點(diǎn)三角化

5.png

3.3 Sparse-to-Dense Depth Estimation

6.png

特征點(diǎn)檢測網(wǎng)絡(luò )提供了特征點(diǎn)的2D坐標,三角化的z坐標提供了深度值。我們可以將稀疏點(diǎn)轉化為與彩色圖像相同分辨率的稀疏深度圖。網(wǎng)絡(luò )模型的梯度可以從稀疏深度圖回傳至3D關(guān)鍵點(diǎn),再回傳至輸入圖像。我們將稀疏深度圖通過(guò)一個(gè)編碼器獲得深度圖特征(該編碼器為一個(gè)層數較淺的RGB圖像編碼器)。具體地,編碼器使用的是ResNet-50,其中每層的通道寬度為圖像編碼器的1/4。將稀疏深度圖的特征和RGB彩色圖的特征聯(lián)結起來(lái)。如圖4所示,本模塊共有4個(gè)尺度的深度圖輸出。模塊中還用到了空間金字塔池化模塊,以獲得不同感受野下的特征。

四、實(shí)驗

4.1 特征點(diǎn)與描述子質(zhì)量

7.png

表1展示了檢測子與描述子的性能評測。其中MLE和可重復性為檢測子的評判指標,MScore為描述子評判指標。旋轉5°和平移5°為綜合考量指標。

4.2 深度估計性能對比

8.png

在不同場(chǎng)景和不同數據集的評測中,采用了相同的超參數:將檢測的特征點(diǎn)數固定為512,采樣的描述子長(cháng)度為100,檢測子的閾值設為5e-4。同時(shí)為確保提取的特征點(diǎn)呈現均勻分布并避免聚類(lèi),將NMS的參數設定為9。圖2展示了在ScanNet數據集上深度估計的預測精度。

參考文獻

1.Sinha A, Murez Z, Bartolozzi J, et al. Deltas: Depth estimation by learning triangulation and densification of sparse points[C]//Computer Vision–ECCV 2020: 16th European Conference, Glasgow, UK, August 23–28, 2020

2.Ma F, Karaman S. Sparse-to-dense: Depth prediction from sparse depth samples and a single image[C]//2018 IEEE international conference on robotics and automation (ICRA). IEEE, 2018: 4796-4803.

3.DeTone D, Malisiewicz T, Rabinovich A. Superpoint: Self-supervised interest point detection and description[C]//Proceedings of the IEEE conference on computer vision and pattern recognition workshops. 2018: 224-236.

4.Iskakov K, Burkov E, Lempitsky V, et al. Learnable triangulation of human pose[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2019: 7718-7727.

*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>