基于多傳感器信息融合的智能交通信息語(yǔ)義描述
Video_object_set中每個(gè)元素稱(chēng)為Video_object,即交通對象。每個(gè)Video_object同時(shí)具有視覺(jué)特征(Visual Feature)和語(yǔ)義特征(Sem antic Features)。每類(lèi)對象的視覺(jué)特征和語(yǔ)義特征如表2所示。本文引用地址:http://dyxdggzs.com/article/160870.htm
Video_event_set表示的是視頻事件集,這些事件包括車(chē)輛直行駛過(guò)、車(chē)輛左拐、車(chē)輛右拐、闖紅燈、變道、違章停車(chē)、行人走過(guò)等交通事件,每個(gè)事件被賦予一個(gè)ID。Object_node引用Video_object_set中的元素Video_object,這樣就避免了對象的重復定義。Object_relati on表示的是對象(Video_object)之間的關(guān)系,這些關(guān)系通常如表3所示。
對于每件交通事件將其描述成對象之間的關(guān)系。例如對于闖紅燈事件,涉及到的對象即為行駛中的車(chē)輛、變?yōu)榧t燈的交通信號燈和停車(chē)線(xiàn),車(chē)和停車(chē)線(xiàn)之間的關(guān)系就是車(chē)越:過(guò)停車(chē)線(xiàn)(Crosses)。對于違章停車(chē)事件,涉及到對象為某個(gè)不能停車(chē)的車(chē)道和靜止的車(chē)輛,它們之間的關(guān)系即為方位關(guān)系,即這輛車(chē)位于該車(chē)道之上(Top of)。
Sensor_status是當有交通事件出現時(shí),相關(guān)的智能交通傳感器的檢測信息,當用戶(hù)需要讀取傳感器的信息時(shí),可以直接讀出。這里的Traffic_sensor_node也需要引用Traffic_sensor_metadata中的Traffic_sensor,避免傳感器的重復定義。
2.4 Traffic_environment部分
這部分主要描述的是攝像頭監控范圍內的整個(gè)交通環(huán)境信息,包括該區域的天氣氣候情況、光照條件、該路段的總體交通信息。
3 智能交通多傳感器信息融合框架模型仿真
在此以車(chē)速檢測為例,對多種智能交通傳感器和攝像頭進(jìn)行決策級融合,以驗證多傳感器信息融合框架的有效性。假設對于某一輛駛過(guò)的汽車(chē),磁敏傳感器檢測到的車(chē)速為v1(單位:km/h),壓電式傳感器檢測到的車(chē)速為v2(單位:km/h),微波雷達檢測到的車(chē)速為v3(單位:km/h),攝像頭檢測到的車(chē)速為v4(單位:km/h),真實(shí)的車(chē)速為v(單位:km/h),則每個(gè)傳感器檢測車(chē)速的誤差為:
△v1=v1-v (1)
△v2=v2-v (2)
△v3=v3-v (3)
△v4=v4-v (4)
根據工程實(shí)踐,磁敏傳感器、攝像頭檢測結果誤差的均值和方差都比較大,而微波雷達和壓電式傳感器則相對比較精確。假設誤差△v1,△v2,△v3,△v4分別滿(mǎn)足近似正態(tài)分布,且:
△v1~N(4,9) (5)
△v2~N(2,4) (6)
△v3~N(1,4) (7)
△v4~N(3,9) (8)
對4種傳感器檢測的結果進(jìn)行融合,這里采用加權平均的模型對檢測結果進(jìn)行融合。4種傳感器所對應的加權系數分別為w1,w2,w3,w4,且:
w1+w2+w3+w4=4 (9)
則融合結果為:
因為△v1,△v2,△v3,△v4獨立,所以△vf也滿(mǎn)足正態(tài)分布,對以上過(guò)程進(jìn)行仿真,結果如圖3所示。
從圖3中可以看出,經(jīng)過(guò)融合,融合結果的誤差△vf的均值較小,動(dòng)態(tài)范圍也大幅度減小,因而多傳感器信息融合能有效提高系統的檢測精度。
評論