基于改進(jìn)Faster RCNN的輸電線(xiàn)路絕緣子檢測研究
0 引言
絕緣子廣泛應用于高壓輸電線(xiàn)路中,在電氣絕緣和導線(xiàn)連接中起著(zhù)重要作用。在長(cháng)期自然環(huán)境以及其他惡劣條件作用下,絕緣子可能出現自爆、掉串等故障,對電力系統構成嚴重威脅,因此,定期巡檢輸電線(xiàn)路絕緣子,及時(shí)發(fā)現并處理故障絕緣子對電力系統的穩定性與可靠性具有重要意義[1]。目前常用的方法是用直升機或無(wú)人機捕捉絕緣子的航空圖像,在直升機或無(wú)人機巡檢中,由于無(wú)人機鏡頭是多角度的,并且包含復雜的背景,提取和定位絕緣子的過(guò)程至關(guān)重要。
因此研究航拍圖像中絕緣子自動(dòng)檢測就顯得十分重要。最初的圖像識別算法主要通過(guò)搜集圖像,再對圖像進(jìn)行處理以實(shí)現絕緣子檢測。黃宵寧等人提出了一種用于直升機巡檢圖像中絕緣子的提取算法,該算法能夠在航拍圖像復雜背景中完整地提取出絕緣子圖像[2];趙振兵等人采用NSCT 提取絕緣子圖像的邊緣圖像,該方法取得了更好的提取效果[3];Oberweger 等人提出可以使用基于局部梯度的描述子提取單個(gè)絕緣子帽,然后用橢圓描述子檢測絕緣子帽[4];金立軍等人在紅外和可見(jiàn)光絕緣子圖像基礎上,對圖像進(jìn)行特征融合,該方法有效提高檢測準確率[5];張燁等人首先對絕緣子進(jìn)行定位檢測,然后對圖像進(jìn)行預處理,能夠判斷絕緣子是否覆冰以及計算出覆冰厚度[6]。以上是一些傳統的圖像處理方法,利用輸電線(xiàn)路圖像的閾值分割和基于絕緣子爆炸特征的分割故障識別。雖然機器學(xué)習在一定程度上提高了可靠性,但在識別時(shí)間和準確率上仍有提升空間。近年來(lái),基于深度模型對目標進(jìn)行檢測的算法[7]表現突出,是目前應用較為廣泛的目標檢測方法。王萬(wàn)國等人使用FasterRCNN 網(wǎng)絡(luò )對于間隔棒、絕緣子等部件的識別準確率達到92.7%[8];李軍峰等人結合深度學(xué)習和隨機森林的對絕緣子、變壓器、斷路器、電桿和鐵塔這5 類(lèi)共8 500幅電力圖像進(jìn)行識別,識別準確率達到了89.6%[9];凌澤南等人將絕緣子破損定位問(wèn)題作為一個(gè)低信噪比的圖像定位框架,包括基于快速R-CNN 的目標檢測和基于U-net 的像素分類(lèi)。前者負責玻璃絕緣子串的定位,提高信噪比;后者能夠對不同尺寸的裁剪圖像中的像素進(jìn)行精確分類(lèi)[10]。王永利等人利用Fast R-CNN 目標檢測網(wǎng)絡(luò )對輸電線(xiàn)路上的絕緣子進(jìn)行快速分類(lèi)和定位,通過(guò)構造全卷積神經(jīng)網(wǎng)絡(luò )對絕緣子進(jìn)行語(yǔ)義分割;最后將完成的絕緣子圖像輸入到分類(lèi)網(wǎng)絡(luò )中,判斷絕緣子是否爆裂,該方法對絕緣子故障爆炸識別準確率達到99% 以上,在一定程度上提高復雜背景下絕緣子爆炸識別的準確性,有效地提高了輸電系統的安全運行[11]。Ohta 等人利用無(wú)人機對輸電塔、絕緣子進(jìn)行圖像采集,然后通過(guò)YOLO 模型和連續圖像處理技術(shù)進(jìn)行絕緣子和輸電塔的識別。在具有背景景觀(guān)的絕緣子圖像中,該方法圖像識別的錯誤率為9.8%[12]。Antwi-Bekoe 等人利用卷積神經(jīng)網(wǎng)絡(luò )CNN 對架空電力傳輸系統采集的圖像中的絕緣子元件和故障絕緣子盤(pán)進(jìn)行檢測和分類(lèi),通過(guò)從不同距離、角度和背景拍攝的圖像中檢測出目標絕緣體和離群值,分別達到了93.75% 和82.0% 的精度,為架空輸電線(xiàn)路自動(dòng)化檢測的實(shí)施提供了切實(shí)可行的解決方案[13]。馬鵬等人利用改進(jìn)后的SSD 網(wǎng)絡(luò )根據電力小部件的特點(diǎn)加載不同模型參數微調卷積神經(jīng)網(wǎng)絡(luò ),采用Soft-PNMS 算法進(jìn)行優(yōu)化,該算法對絕緣子等小部件的精準度達到了91.1%,對電力小部件的檢測有重要意義[14]。相較以前,上述方法準確度和識別率都大大提升,但是其研究主要集中在絕緣子識別和故障檢測,對于復雜背景下絕緣子的檢測過(guò)少。本文針對航拍圖像中絕緣子檢測這一特定情況,通過(guò)多尺度訓練提升系統魯棒性,改進(jìn)RPN(Region Proposal Network)候選框比例使檢測結果更貼合目標,改進(jìn)Faster RCNN[15] 模型并引入深度殘差網(wǎng)絡(luò ),提高復雜背景下絕緣子的檢測精度。
1 絕緣子檢測識別方法
在海量巡檢圖像中絕緣子形態(tài)不一且現有目標檢測算法絕緣子檢測精確度較低。為提高目標檢測準確性,降低漏檢率,提升檢測速度,本文選用Faster RCNN 模型進(jìn)行巡檢圖像的絕緣子檢測,在此基礎上結合多尺度訓練、改善候選區域比例和深度殘差網(wǎng)絡(luò ),解決目標尺寸不一、遮擋等因素影響,進(jìn)一步提高絕緣子檢測的精確度。本文的絕緣子檢測流程如圖1 所示。
1.1 樣本擴充
本文中絕緣子數據集來(lái)自無(wú)人機巡檢航拍圖像,涵蓋不同地點(diǎn)不同時(shí)期包含絕緣子的巡檢圖片??紤]到部分巡檢圖像中存在很多小目標,而普通的切割方法會(huì )使這些小目標的信息大量流失,因此采用自適應裁剪算法,可以通過(guò)計算目標占畫(huà)幅大小比例來(lái)進(jìn)行裁剪操作,可以對樣本進(jìn)行更有效的裁剪。并且采用水平翻轉以及亮度扭曲來(lái)進(jìn)行樣本擴充。樣本擴充流程細節如圖2 所示,樣本擴充示例如圖3 所示。
(a)原始圖像
(b)水平翻轉
(c)自適應裁剪
(d)亮度不足
(e)亮度過(guò)大
圖3 樣本擴充示例
1.2 Faster RCNN檢測算法
Faster RCNN 算法基本工作原理如圖3 所示。過(guò)程如下:
1)對輸入的圖像進(jìn)行預處理,包括圖像翻轉、像素變換等;
2)采用卷積神經(jīng)網(wǎng)絡(luò )對輸入圖像進(jìn)行特征提??;
3)通過(guò)區域建議網(wǎng)絡(luò )(RPN)生成候選圖;
4)把候選框與提取的特征圖對應,提取候選圖對應的特征圖;
5)通過(guò)ROI 池化層將大小不同的候選框對應的特征圖處理成相同大??;
6)將候選圖的特征圖輸入到全連接層,分別對候選框進(jìn)行分類(lèi)的位置回歸。
1.3 RPN網(wǎng)絡(luò )的改進(jìn)
RPN 網(wǎng)絡(luò )是在特征圖上找到所有的目標候選區域,卷積層生成的特征映射圖作為RPN 的輸入。在RPN網(wǎng)絡(luò )中,設置了9 種anchors,對應3 種尺度(1282、2562、5122 )以及3 種長(cháng)寬比(1:1、1:2、2:1),但是對常規物體檢測設置的。由于絕緣子的外形均為細長(cháng)型,寬高比例非常不均衡,原始的anchor 不適合對于細長(cháng)絕緣子的檢測,而且絕緣子在整幅圖像中的占比較小,因此為了得到更好的識別效果,需要微調候選框比例。為了降低漏檢率,增加一組尺度642,候選框數目從9 增加到了12。將PRN 網(wǎng)絡(luò )候選框比例擴展,尋找最佳比例。
深度殘差網(wǎng)絡(luò )(deep residual network,ResNet)[16]設計了一種殘差模塊,并以殘差模塊來(lái)構建網(wǎng)絡(luò ),殘差模塊如圖5 所示。其中X 為該殘差模塊的輸入,F(X)為由該殘差模塊擬合得到的函數。
深度殘差網(wǎng)絡(luò )ResNet101 由殘差模塊層層疊加構成,包含100 個(gè)卷積層、100 個(gè)激活層、4 個(gè)池化層和1 個(gè)全連接層。而原始Faster-RCNN 算法也利用包含4 個(gè)池化層的VGG16 網(wǎng)絡(luò )來(lái)提取圖像特征,因此本文利用ResNet101 來(lái)代替VGG16 網(wǎng)絡(luò ),圖像尺寸變化也與VGG16 網(wǎng)絡(luò )保持一致。實(shí)驗結果表明,相比利用VGG16 網(wǎng)絡(luò )提取圖像特征,使用ResNet101 網(wǎng)絡(luò )可以取得更好的檢測效果。
1.5 多尺度訓練
原始Faster RCNN 模型要求訓練的圖片尺寸相同,而在實(shí)際巡檢過(guò)程中,采集圖像中絕緣子大小不一,差別較大,因此容易出現漏檢的情況,包括圖像中絕緣子較小的圖像。為了降低絕緣子的漏檢率,通過(guò)多尺度訓練,設置三種輸入尺度(480、600、750),在保持絕緣子圖像占比不變的情況下,每張圖片隨機以一種尺度輸入進(jìn)行訓練,使訓練出的模型能夠學(xué)習各種尺寸大小的絕緣子特征。實(shí)驗證明,采用多尺度訓練能夠檢測到較小的絕緣子圖像,提高絕緣子的檢測率。
2 實(shí)驗結果及分析
2.1 評價(jià)指標
本文運算環(huán)境配置為:Inter Core i7-9700F@4.50 GHz、8GB 運行內存、RTX2070 Super ultra oc GPU 的電腦。本文選取巡檢絕緣子圖片共3 400 張,其中3 100 張為網(wǎng)絡(luò )的訓練集,300 張為測試集。采用精確度(precision)和召回率(recall)來(lái)衡量模型檢測的結果,公式如(1)、(2)所示。
其中,TP 為正常識別出絕緣子的樣本數;FP 為錯誤識別絕緣子的樣本數;FN 為未識別出絕緣子的樣本數。
2.2 網(wǎng)絡(luò )訓練
在訓練時(shí)批次大小設置為128,權值衰減設為0.000 5,初始學(xué)習率為0.001。通過(guò)損失值(Loss)來(lái)判斷網(wǎng)絡(luò )訓練效果,如圖6 所示,迭代次數越多,網(wǎng)絡(luò )的損失值越接近于0,說(shuō)明訓練效果也越來(lái)越好。平均準確率與迭代次數關(guān)系如圖7 所示,迭代次數越多,絕緣子識別的平均準確率也越高,當迭代13 000 時(shí)達到了最大的88%,因此本文把迭代13 000 次時(shí)的權重作為目標檢測模型。
2.3 候選區域比例對檢測結果的影響
改變RPN 網(wǎng)絡(luò )中候選區域比例的種類(lèi)數量,對文中建立的數據集進(jìn)行檢測,得到的檢測結果以及平均精度(AP)如表1 所示,當檢測候選框比例為1:4、1:3、1:2,1:1、2:1、3:1、4:1 時(shí),檢測的平均精度最佳,比原始模型提升了8.02%。
2.4 改進(jìn)后的Faster RCNN實(shí)驗結果
2.4.1不同目標檢測算法結果對比
用不同目標檢測算法與改進(jìn)后的Faster RCNN 進(jìn)行對比,結果如圖8 所示。由圖8 可知,改進(jìn)后的Faster RCNN 模型相較其他網(wǎng)絡(luò )模型能完整地識別出被桿塔遮擋的絕緣子部分,以及圖中微小的絕緣子目標,且圖中的識別框更貼合目標絕緣子。
(a)Yolo v3
(b)Faster RCNN
(c)改進(jìn)后Faster RCNN
圖8 不同目標檢測算法檢測結果圖
用不同網(wǎng)絡(luò )模型對300 張測試集進(jìn)行檢測,能準確識別出所有絕緣子,包括殘缺以及被遮擋的絕緣子,視為識別正確,實(shí)驗結果如表2 所示。改進(jìn)后的FasterRCNN 相比Faster RCNN 以及YOLO v3 召回率分別提升了10%、7.34%,精確度分別提升了4.88%、3.82%。但平均檢測時(shí)間較長(cháng),但仍然滿(mǎn)足巡檢要求。
2.4.2不同目標檢測算法結果對比
不同策略訓練網(wǎng)絡(luò )的檢測結果如表3 所示。由表3可知,策略2 相比策略1,微調候選框比例使精度提高了1.37%。策略3 比策略1 增加了一組尺度(642),anchor 數量增加到12,精確度也有明顯提升。策略3和策略4 對比可知,增加多尺度訓練,將檢測精確度提高了1.09%。策略5 和策略6 對比可知,深度殘差網(wǎng)絡(luò )ResNet101 可以取得更好的檢測效果。綜上所述,4 種策略都使網(wǎng)絡(luò )模型的精度更高。
3 結束語(yǔ)
為提高航拍圖像中絕緣子的檢測能力,本文基于Faster RCNN 網(wǎng)絡(luò )模型進(jìn)行改進(jìn)使絕緣子檢測結果更為精確。針對絕緣子尺寸不一的特點(diǎn),微調RPN 候選區域比例,增加anchor 數量,選擇ResNet101 網(wǎng)絡(luò ),提高絕緣子檢測的準確性和實(shí)時(shí)性。訓練時(shí)增加多尺度訓練來(lái)提高檢測模型的魯棒性。針對航拍圖像中遮擋絕緣子,增加深度殘差網(wǎng)絡(luò )來(lái)提高檢測精確度。檢測結果表明,改進(jìn)后的Faster RCNN 網(wǎng)絡(luò )的檢測精確度與FasterRCNN 相比提升了4.88%。但該方法平均檢測時(shí)間有所增加,而且巡檢絕緣子狀況不一,后續將繼續增加樣本,并且添加紅外絕緣子圖像,缺陷絕緣子圖像等,進(jìn)一步優(yōu)化網(wǎng)絡(luò ),減少測試時(shí)間,提升檢測準確度。
參考文獻:
[1] GOLIGHTLY I,JONES D. Corner detection and matching for visual tracking during power line inspection[J].Image and vision computing,2003,21(9):827-840.
[2] 黃宵寧,張真良.直升機巡檢航拍圖像中絕緣子圖像的提取算法[J].電網(wǎng)技術(shù),2010,34(1):194-197.
[3] 趙振兵,金思新,劉亞春.基于NSCT的航拍絕緣子圖像邊緣提取方法[J].儀器儀表學(xué)報,2012,33(9):2045-2052.
[4] OBERWEGER M,WENDEL A,BISCHOF H. Visual recognition and fault detection for power line insulators[C].19th computer vision winter workshop,2014.
[5] 金立軍,田治仁,高凱,等.基于紅外與可見(jiàn)光圖像信息融合的絕緣子污穢等級識別[J].中國電機工程學(xué)報,2016,36(13):3682-3691,3389.
[6] 張燁,馮玲,穆靖宇,等.輸電線(xiàn)路絕緣子覆冰厚度圖像識別算法[J].電力系統自動(dòng)化,2016,40(21):195-202.
[7] HOSANG J,BENENSON R,DOLLáR P,et al,What makes for effective detection proposals[J],IEEE transactions on pattern analysis & machine intelligence,2016,38(4):814.
[8] 王萬(wàn)國,田兵,劉越,等.基于RCNN的無(wú)人機巡檢圖像電力小部件識別研究[J].地球信息科學(xué)學(xué)報,2017,19(2):256-263.
[9]李軍鋒,王欽若,李敏.結合深度學(xué)習和隨機森林的電力設備圖像識別[J].高電壓技術(shù),2017,43(11):3705-3711.
[10] LING Z,ZHANG D,QIU R C,et al,An accurate and realtime method of self-blast glass insulator location based on faster R-CNN and U-net with aerial images [J],CSEE journal of power and energy systems,2019,5(4):474-482.
[11] WANG Y,WANG J,GAO F,et al,Detection and recognition for fault insulator based on deep learning[C],20181 1 t h i n t e r n a t i o n a l c o n g r e s s o n i m a g e a n d s i g n a l processing,BioMedical Engineering and Informatics(CISPBMEI), 2018.
[12] OHTA H,SATO Y,MORI T,et al,Image acquisition of power line transmission towers using UAV and deep learning technique for insulators localization and recognition[C].2019 23rd international conference on system theory,control and computing(ICSTCC),2019.
[13] ANTWI-BEKOE E,ZHAN Q,XIE X,et al,Insulator recognition and fault detection using deep learning approach[C]. Journal of Physics:Conference Series,Volume 1454,2019 international conference on advanced information systems and engineering,Cairo,Egypt.
[14] 馬鵬,樊艷芳.基于深度遷移學(xué)習的小樣本智能變電站電力設備部件檢測[J].電網(wǎng)技術(shù),2020,44(3):1148-1159.
[15] REN S,HE K,GIRSHICK R,et al,Faster R-CNN:Towards r e a l - t i m e o b j e c t d e t e c t i o n w i t h r e g i o n p r o p o s a l networks[J],IEEE transactions on pattern analysis & machine intelligence,2017,39(6):1137-1149.
[16] HE K,ZHANG X,REN S,et al,Deep residual learning for image recognition[C].2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Las Vegas,USA:IEEE,2016:770-77.
(本文來(lái)源于《電子產(chǎn)品世界》雜志2021年10月期)
評論