<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > TRO新文:用于數據關(guān)聯(lián)、建圖和高級任務(wù)的對象級SLAM框架(2)

TRO新文:用于數據關(guān)聯(lián)、建圖和高級任務(wù)的對象級SLAM框架(2)

發(fā)布人:計算機視覺(jué)工坊 時(shí)間:2023-07-17 來(lái)源:工程師 發(fā)布文章
3 對象描述子

為了描述不同物體間的關(guān)系,文章構建了語(yǔ)義拓撲圖和基于此的隨機游走描述子。

  1. 拓撲圖:通過(guò)物體的語(yǔ)義標簽、位置、姿態(tài)和尺寸信息,構建不同物體及物體與情景的關(guān)系圖:

圖片表示物體節點(diǎn),編碼物體信息

圖片表示邊,編碼兩個(gè)物體的距離d和角度α

  1. 描述子:基于拓撲圖中不同物體間的關(guān)系,采用隨機游走的方式構建物體描述子υ:

r是一個(gè)隨機行走路徑,起始于被描述的物體,最多到達i個(gè)物體。每行重復j次隨機行走。

  1. 多維度信息:為了提高魯棒性,描述子中考慮物體標簽l、尺寸s、距離d和角度α四個(gè)維度:

4. 場(chǎng)景匹配:基于多個(gè)物體對的描述子匹配,求解兩個(gè)情景的轉換矩陣T:

·  生成兩個(gè)情景T1和T2的描述子V1和V2。

·  對每個(gè)對象v1在V1中找到在V2中的最佳匹配v2。

·  根據多個(gè)物體對,利用奇異值分解(SVD)求解轉換矩陣T。

  1. 魯棒性:采用RANSAC算法去除誤匹配物體對,提高匹配的魯棒性??偟膩?lái)說(shuō),基于拓撲圖實(shí)現的物體描述子充分利用了物體的語(yǔ)義、尺寸和相對關(guān)系,能有效實(shí)現不同視角下的場(chǎng)景匹配??紤]更多非物體的語(yǔ)義特征可能進(jìn)一步提高魯棒性和準確性。
4 實(shí)驗結果
  1. 數據關(guān)聯(lián):實(shí)驗結果表明,集成不同統計模型超過(guò)單一方法。表明點(diǎn)云和質(zhì)心確實(shí)呈現非高斯分布和高斯分布。

圖片2. 對象參數化: 實(shí)驗結果表明, iForest和線(xiàn)段對齊有效實(shí)現精確的6DOF姿態(tài)估計。并構建了基于形狀的通用對象模型

圖片

圖片3. 對象地圖構建:可在不同數據集上構建語(yǔ)義對象地圖,處理不同類(lèi)、數量、尺寸和方位角的物體。實(shí)驗表明系統的魯棒性。

圖片4. 增強現實(shí):基于精確的物體姿態(tài)信息,實(shí)現虛擬模型與實(shí)物精準配準??紤]遮擋和碰撞效果,提高虛擬可信度。

圖片5. 場(chǎng)景匹配:基于物體描述子,可在不同視角和照明條件下實(shí)現場(chǎng)景匹配和多地圖融合。具有魯棒性。

圖片6. 主動(dòng)地圖構建:通過(guò)信息熵量化物體觀(guān)測完整度,驅動(dòng)主動(dòng)建設語(yǔ)義對象地圖。實(shí)驗表明比隨機探索和全面覆蓋策略更高效和更準確。

圖片7. 機器人抓取:基于語(yǔ)義對象地圖信息,實(shí)現機器人抓握。在虛擬環(huán)境和實(shí)際環(huán)境下的成功率分別達到86%和81%。

圖片

局限性:數據關(guān)聯(lián)在極端情況下存在問(wèn)題;對象姿態(tài)估計受離群點(diǎn)影響而不準確;場(chǎng)景匹配依賴(lài)精確的對象建模。改進(jìn)方向:優(yōu)化數據關(guān)聯(lián)魯棒性;采用機器學(xué)習提高姿態(tài)估計精度;構建更通用的物體描述子;采用多源感知實(shí)現全景對象地圖。

總的來(lái)說(shuō),實(shí)驗結果充分證明了對象SLAM框架在不同應用上的有效性和潛力。同時(shí)指出了當前的局限性和未來(lái)的改進(jìn)方向。這對促進(jìn)對象SLAM技術(shù)的發(fā)展至關(guān)重要。


*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>