<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > 自動(dòng)泊車(chē)端到端算法 ParkingE2E 介紹

自動(dòng)泊車(chē)端到端算法 ParkingE2E 介紹

發(fā)布人:地平線(xiàn)開(kāi)發(fā)者 時(shí)間:2024-11-09 來(lái)源:工程師 發(fā)布文章

01 算法介紹


自主泊車(chē)是智能駕駛領(lǐng)域中的一項關(guān)鍵任務(wù)。傳統的泊車(chē)算法通常使用基于規則的方案來(lái)實(shí)現。因為算法設計復雜,這些方法在復雜泊車(chē)場(chǎng)景中的有效性較低。


相比之下,基于神經(jīng)網(wǎng)絡(luò )的方法往往比基于規則的方法更加直觀(guān)和多功能。通過(guò)收集大量專(zhuān)家泊車(chē)軌跡數據,基于學(xué)習的仿人策略方法,可以有效解決泊車(chē)任務(wù)。


在本文中,我們采用模仿學(xué)習來(lái)執行從 RGB 圖像到路徑規劃的端到端規劃,模仿人類(lèi)駕駛軌跡。我們提出的端到端方法利用目標查詢(xún)編碼器來(lái)融合圖像和目標特征,并使用基于 Transformer 的****自回歸預測未來(lái)的航點(diǎn)。


我們在真實(shí)世界場(chǎng)景中進(jìn)行了廣泛的實(shí)驗,結果表明,我們提出的方法在四個(gè)不同的真實(shí)車(chē)庫中平均泊車(chē)成功率達到了 87.8%。實(shí)車(chē)實(shí)驗進(jìn)一步驗證了本文提出方法的可行性和有效性。


輸入:1.去完畸變的 RGB 圖  2.目標停車(chē)位

輸出:路徑規劃

圖片

論文精讀博客參考鏈接:https://blog.csdn.net/qq_45933056/article/details/140968352


源代碼:https://github.com/qintonguav/ParkingE2E



02 算法部署后的 demo 效果展示


圖片


圖片



03 實(shí)現過(guò)程


3.1 算法整體架構


圖片


多視角 RGB 圖像被處理,圖像特征被轉換為 BEV(鳥(niǎo)瞰圖)表示形式。使用目標停車(chē)位生成 BEV 目標特征,通過(guò)目標查詢(xún)將目標特征和圖像 BEV 特征融合,然后使用自回歸的 Transformer ****逐個(gè)獲得預測的軌跡點(diǎn)。


3.2 訓練過(guò)程


注:訓練數據集是去完畸變的圖像,在數據處理時(shí)需要對 4 路魚(yú)眼相機進(jìn)行標定,獲取相機內外參,對魚(yú)眼圖進(jìn)行去畸變,去完畸變的圖像會(huì )被制作成訓練集


獲取去完畸變的 RGB 圖像和目標停車(chē)位做為輸入:

(去完畸變的 RGB 圖像示例)


圖片


目標停車(chē)位坐標示例:


{
"x": 83.93134781878057,
"y": -7.080006849257972,
"z": -7.404438257656194,
"yaw": 20.95510451530132
}


  • 使用 EfficientNet 從 RGB 圖像中提取特征;

  • 將預測的深度分布 ddep 與圖像特征 Fimg 相乘,以獲得具有深度信息的圖像特征;

  • 將圖像特征投影到 BEV 體素網(wǎng)格(特征的大小為 200×200,對應實(shí)際空間范圍 x∈[?10m, 10m], y∈[?10m, 10m],分辨率為 0.1 米)中,生成相機特征 Fcam。


BEV 視圖示例:


圖片


  • 使用深度 CNN 神經(jīng)網(wǎng)絡(luò )提取目標停車(chē)位特征 Ftarget

  • 在 BEV 空間,將相機特征 Fcam 和目標停車(chē)位特征 Ftarget 進(jìn)行融合,獲取融合特征 Ffuse

  • 使用 Transformer ****以自回歸方式預測軌跡點(diǎn)


預測的軌跡序列示例:

[[-0.17014217376708984, -0.010008811950683594], [-0.3298116556863353, -0.011956165423615472], [-0.4854376561367579, -0.02052420170634236], [-0.6337416331734281, -0.03509474854381417], [-0.774850889165686, -0.05409092178920946], [-0.9106318371186677, -0.07662342910150008], [-1.0429499912911764, -0.10220288211346742], [-1.1730293341546085, -0.130403150090076], [-1.3014671109093938, -0.16081194272771432], [-1.4284175031869575, -0.19315076247807056], [-1.5537739117230407, -0.22739195648381574], [-1.6773593831451739, -0.2637573983721455], [-1.7991250198403412, -0.3025803813592571], [-1.9192866870681176, -0.34410827406410627], [-2.0383187092132995, -0.3883681895794497], [-2.1567872059422366, -0.43518302389208097], [-2.275088086162824, -0.4843281463722012], [-2.393198715763861, -0.5357188397161318], [-2.5105481374226417, -0.5894858888356189], [-2.6260817537118184, -0.6458681996255287], [-2.7385546018760474, -0.7049937228225489], [-2.84701611529502, -0.7667346960596122], [-2.9513409844272736, -0.8308041149223722], [-3.0525702187102848, -0.8970783878192974], [-3.1528531887709175, -0.9658913604113011], [-3.25493913830157, -1.0379629359384206], [-3.3612681922638727, -1.1139021444876271], [-3.4725675825974993, -1.193842039192509], [-3.58588491431963, -1.2783030155644421], [-3.69307804107666, -1.3711423873901367]]


實(shí)現過(guò)程圖標表示:

圖片



3.3 推理過(guò)程


  1. 在 RViz 界面軟件中使用“2D-Nav-Goal”來(lái)選擇目標停車(chē)位

目標停車(chē)位停車(chē)軌跡示例:
position:
x: -6.49
y: -5.82
z: 0.0
orientation:
x: 0.0
y: 0.0
z: 0.0
w: 1.0目標停車(chē)位停車(chē)軌跡示例:position:x: -6.49y: -5.82z: 0.0orientation:x: 0.0y: 0.0z: 0.0w: 1.0


  1. 獲取起始位姿,將以起始點(diǎn)為原點(diǎn)的世界坐標轉化為車(chē)輛坐標

起始軌跡位姿示例:
position:
x: -0.16161775150943924
y: 0.018056780251669124
z: 0.006380920023400627
orientation:
x: -0.0002508110368611588
y: 0.0008039258947159855
z: 0.010172557118261405
w: 0.9999479035823092


  1. 組合數據輸入到 transformer 進(jìn)行推理,預測軌跡序列

預測的軌跡序列示例:
[[-0.17014217376708984, -0.010008811950683594], [-0.3298116556863353, -0.011956165423615472], [-0.4854376561367579, -0.02052420170634236], [-0.6337416331734281, -0.03509474854381417], [-0.774850889165686, -0.05409092178920946], [-0.9106318371186677, -0.07662342910150008], [-1.0429499912911764, -0.10220288211346742], [-1.1730293341546085, -0.130403150090076], [-1.3014671109093938, -0.16081194272771432], [-1.4284175031869575, -0.19315076247807056], [-1.5537739117230407, -0.22739195648381574], [-1.6773593831451739, -0.2637573983721455], [-1.7991250198403412, -0.3025803813592571], [-1.9192866870681176, -0.34410827406410627], [-2.0383187092132995, -0.3883681895794497], [-2.1567872059422366, -0.43518302389208097], [-2.275088086162824, -0.4843281463722012], [-2.393198715763861, -0.5357188397161318], [-2.5105481374226417, -0.5894858888356189], [-2.6260817537118184, -0.6458681996255287], [-2.7385546018760474, -0.7049937228225489], [-2.84701611529502, -0.7667346960596122], [-2.9513409844272736, -0.8308041149223722], [-3.0525702187102848, -0.8970783878192974], [-3.1528531887709175, -0.9658913604113011], [-3.25493913830157, -1.0379629359384206], [-3.3612681922638727, -1.1139021444876271], [-3.4725675825974993, -1.193842039192509], [-3.58588491431963, -1.2783030155644421], [-3.69307804107666, -1.3711423873901367]]


  1. 將預測的軌跡序列發(fā)布到 rviz 進(jìn)行可視化


圖片



04 評估指標


端到端實(shí)車(chē)評估:在實(shí)車(chē)實(shí)驗中,我們使用以下指標來(lái)評估端到端停車(chē)性能。


圖片


關(guān)鍵詞解釋?zhuān)?/strong>

PSR:停車(chē)成功率

NSR:無(wú)車(chē)位率

PVR:停車(chē)違規率

APE:平均位置誤差

AOE:平均方向誤差

APS:平均停車(chē)得分

APT:平均停車(chē)時(shí)間



05 局限性


  1. 由于數據規模和場(chǎng)景多樣性的限制,我們的方法對移動(dòng)目標的適應性較差

  2. 訓練過(guò)程需要專(zhuān)家軌跡

  3. 與傳統的基于規則的停車(chē)方法相比仍有差距


*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: 算法 自動(dòng)駕駛

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>