YOLOP 多任務(wù)算法詳解
論文標題:YOLOP You Only Look Once for Panoptic Driving Perception
論文地址:https://arxiv.org/abs/2108.11250
官方代碼:https://github.com/hustvl/YOLOP
YOLOP 的核心亮點(diǎn)就是多任務(wù)學(xué)習,而各部分都是拿其它領(lǐng)域的成果進(jìn)行縫合,其網(wǎng)絡(luò )結構如下圖所示:
三個(gè)子任務(wù)共用一個(gè)Backbone和Neck,然后分出來(lái)三個(gè)頭來(lái)執行不同的任務(wù)。
根據論文所述,整個(gè)網(wǎng)絡(luò )可以分成一個(gè) Encoder 和 3 個(gè) Decoder。
Encoder 包含 Backbone 和 Neck,Backbone 照搬了 YOLOv4 所采用的 CSPDarknet,Neck 也和 YOLOv4 類(lèi)似,使用了空間金字塔(SPP)模塊和特征金字塔網(wǎng)絡(luò )(FPN)模塊。
Decoders 即三個(gè)任務(wù)頭:
Detect Head
目標檢測頭使用了 Path Aggregation Network (PAN)結構,這個(gè)結構可以將多個(gè)尺度特征圖的特征圖進(jìn)行融合,其實(shí)還是 YOLOv4 那一套。
Drivable Area Segment Head & Lane Line Segment Head
可行駛區域分割頭和車(chē)道線(xiàn)檢測頭都屬于語(yǔ)義分割任務(wù),因此 YOLOP 使用了相同的網(wǎng)絡(luò )結構,經(jīng)過(guò)三次上采樣,將輸出特征圖恢復為(W, H, 2)的大小,再進(jìn)行具體任務(wù)的處理。
損失函數包括三部分,即三個(gè)任務(wù)的損失。
目標檢測損失
目標檢測是直接照搬 YOLOv4 的,因此和 YOLOv4 采用的損失一樣,經(jīng)典的邊界框損失、目標損失和類(lèi)別損失,各自加了個(gè)權重。
語(yǔ)義分割損失
另外兩個(gè)語(yǔ)義分割損失采用的均是交叉熵損失。
總體損失,總體損失為三部分損失之和:
pytorch 中 DDP 使用:
(1)參數加載;
(2)模型轉換成 DDP 模型;
(3)訓練數據 sampler,來(lái)使得各個(gè)進(jìn)程上的數據各不相同;
(4)分布式模型的保存。
models/YOLOP.py
core/loss.py utils/utils.py
用于單任務(wù)訓練固定其他網(wǎng)絡(luò )部分層。
后續在 train()中 warmup 會(huì )調整學(xué)習率。
首先定義一個(gè)優(yōu)化器,定義好優(yōu)化器以后,就可以給這個(gè)優(yōu)化器綁定一個(gè)指數衰減學(xué)習率控制器。
(1) torch.optim.lr_scheduler.LambdaLR
語(yǔ)法:class torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1)
參數:
optimizer (Optimizer):要更改學(xué)習率的優(yōu)化器,sgd或adam;
lr_lambda(function or list):根據epoch計算λ \lambdaλ的函數;或者是一個(gè)list的這樣的 function,分別計算各個(gè)parameter groups的學(xué)習率更新用到的λ \lambdaλ;
last_epoch (int):最后一個(gè)epoch的index,如果是訓練了很多個(gè)epoch后中斷了,繼續訓練,這個(gè)值就等于加載的模型的epoch。默認為-1表示從頭開(kāi)始訓練,即從epoch=1開(kāi)始。
1.該文件繼承 AutoDriveDataset.py。
2、按比例縮放操作:letterbox()圖像增加灰邊
3、數據增強操作
utils/utils.py 文件:
random_perspective()放射變換增強
augment_hsv()顏色 HSV 通道增強
cutout()
YOLOP 包括三個(gè)檢測任務(wù),目標檢測+可行駛區域檢測+車(chē)道線(xiàn)檢測。
loss.py postprocess.py
build_targets 思想:
build_targets 主要為了拿到所有 targets(擴充了周?chē)?grids)對應的類(lèi)別,框,batch 中圖片數索引和 anchor 索引,以及具體的 anchors。
每個(gè) gt 按照正樣本選取策略,生成相應的 5 個(gè)框,再根據與默認 anchor 匹配,計算寬高的比例值,根據閾值過(guò)濾不相符的框,得到最終正樣本。
#[b, a, gj, gi]為shape=54的向量,pi為[4,3,48,80,6]維矩陣,從pi中按照b, a, gj, gi的索引挑出想要的目標,最終為[54,6]維ps = pi[b, a, gj, gi] # prediction subset corresponding to targets 。b, a, gj, gi為索引值,在pi中挑
predictions[0] 目標檢測分支[[4,3,48,80,6],[4,3,24,40,6],[4,3,12,20,6]]。
targets[0] 目標檢測標簽 [32,6],格式為[batch_num,class,x1,y1,x2,y2]。根據 build_targets 在每個(gè)檢測層生成 相 應的正樣本 tbox[]。
將每層的預測結果 tensor pi 根據正樣本格式得到 ps = pi[b, a, gj, gi]。
計算每個(gè)檢測層預測與正樣本之間的 ciou 坐標損失。
iou = bbox_iou(pbox.T, tbox[i], x1y1x2y2=False, CIoU=True) # iou(prediction, target)
lbox += (1.0 - iou).mean() # iou loss 坐標損失
6.2 可行駛區域損失obj 損失:
cls 類(lèi)別損失:
det_out:障礙物檢測輸出格式:[25200,6] 其中 6 表示[x1,y1,x2,y2,conf,cls],25200 :(80x80+40x40+20x20)x3。
lane_line_seg : 車(chē)道線(xiàn)分割輸出格式:1,2,640,640。
drive_area_seg : 可行駛區域分割輸出格式:1,2,640,640。
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。