基于多傳感器信息融合的智能交通信息語(yǔ)義描述
摘要:針對攝像頭采集交通信息時(shí)易受環(huán)境干擾且采集到的信息不夠全面的問(wèn)題,提出智能交通多傳感器信息融合框架,對多種傳感器采集到的交通信息進(jìn)行融合。另外由于攝像頭采集的視頻數據量巨大且多為底層視覺(jué)信息,不便于用戶(hù)信息檢索,提出智能交通信息語(yǔ)義描述框架,對交通視頻信息和傳感器信息進(jìn)行語(yǔ)義描述。實(shí)驗結果表明,對多傳感器采集到的信息進(jìn)行融合能有效提高信息采集的精度,同時(shí)對交通視頻信息進(jìn)行語(yǔ)義描述將極大地方便用戶(hù)對感興趣信息的檢索。
關(guān)鍵詞:智能交通系統;多傳感囂信息融合;MPEG-7;視頻語(yǔ)義描述
0 引言
攝像頭作為監控、采集交通信息的有效手段被廣泛應用于智能交通系統中。然而攝像頭由于其光學(xué)特性極易受到周?chē)h(huán)境的干擾,例如強光照射、雨雪霧等惡劣的氣候條件都會(huì )對攝像頭的正常工作產(chǎn)生很大的影響,因而僅僅通過(guò)攝像頭這一單一信息采集手段獲得的交通信息往往是不夠完整的,有時(shí)甚至是不可靠的。另外攝像頭采集到的視頻信息,信息量龐大,毫無(wú)結構性,用戶(hù)如果希望在如此海量信息中檢索感興趣的內容,例如用戶(hù)想查看某段黑色轎車(chē)闖紅燈的視頻,目前通常的做法是一幀幀地線(xiàn)性瀏覽整個(gè)視頻,顯然這個(gè)過(guò)程效率極其低下。
基于以上問(wèn)題,本文首先提出了一個(gè)多傳感器信息融合框架,通過(guò)將攝像頭采集到的視頻信息與多種智能交通傳感器采集到的信息進(jìn)行融合以彌補攝像頭作為單一信息采集手段的不足。然后在此基礎上提出了一個(gè)對攝像頭所采集的視頻信息和智能交通傳感器信息進(jìn)行語(yǔ)義描述的框架,為用戶(hù)對交通信息進(jìn)行高效檢索提供鋪墊。
1 智能交通多傳感器信息檢測與融合
1.1 多傳感器信息融合理論
多傳感器信息融合理論最早應用于軍事領(lǐng)域,這一方面的研究首先起始于1973年的美國。20世紀80年代,隨著(zhù)傳感器技術(shù)的進(jìn)步,多傳感器信息融合理論開(kāi)始飛速發(fā)展,其在非軍事領(lǐng)域的應用也大規模展開(kāi),工業(yè)控制系統、智能交通、氣象監測、資源探測、醫療診斷等多個(gè)領(lǐng)域都在朝著(zhù)多傳感器方向發(fā)展。國內多傳感器信息融合的研究也于20世紀90年代達到高潮,涌現了諸多理論和工程實(shí)踐成果。
多傳感器信息融合就是充分利用多個(gè)傳感器的資源,通過(guò)對多種傳感器信息按照某優(yōu)化規則進(jìn)行組合處理,有效地提高各個(gè)傳感器信息之間的互補性,同時(shí)剔除不必要的冗余信息,提高整個(gè)系統的有效性。多傳感器信息融合按照信息處理層次可分為數據層信息融合、特征層信息融合、決策層信息融合。其中決策層信息融合是根據各個(gè)傳感器系統的判決進(jìn)行優(yōu)化推理,做出最終的決策,靈活性高,通信負荷小,無(wú)需傳感器之間同質(zhì),但同時(shí)也對觀(guān)測信息的預處理提出了很高的要求。
1.2 智能交通多傳感器信息融合框架
智能交通傳感器種類(lèi)繁多,功能各異。針對應用場(chǎng)景以及結合前期的工程實(shí)踐,選擇磁敏傳感器、壓電式傳感器、微波雷達、RFID作為獲取交通信息的傳感器,這4種傳感器所采集的交通信息如表1所示。
此外,整個(gè)交通狀態(tài)會(huì )受到周?chē)h(huán)境的影響,因而需要根據環(huán)境變化調節多傳感器信息融合的策略,從而降低環(huán)境變化所帶來(lái)的影響。
到目前為止,需要進(jìn)行信息融合的傳感器包括攝像頭、磁敏傳感器、壓電式傳感器、微波雷達、RFID。這5種傳感器彼此異質(zhì),原始觀(guān)測數據結構、內容差異巨大,例如攝像頭采集的是二維視頻信號,磁敏傳感器卻輸出一維模擬信號,而壓電式傳感器則輸出模擬脈沖信號。因此考慮在決策級對這幾種傳感器信息進(jìn)行融合。每個(gè)傳感器節點(diǎn)對采集到的信息進(jìn)行分析處理,其結果與視頻信息處理結果進(jìn)行決策級融合,整個(gè)融合過(guò)程同時(shí)會(huì )受到氣象、光照條件的影響。多傳感器信息融合框架如圖1所示。
2 智能交通信息的語(yǔ)義描述
隨著(zhù)多媒體技術(shù)的迅速發(fā)展,視頻信息量也呈現出爆炸性增長(cháng)趨勢。面對如此海量的數據,用戶(hù)更關(guān)注如何才能高效地檢索到自己所感興趣的信息,即如何實(shí)現基于內容的視頻信息查詢(xún)(Content-Based Visual Queries,CBVQ)。這一問(wèn)題已引起了研究者的廣泛興趣,一些原型系統相繼問(wèn)世,如IBM的QBIC系統,哥倫比亞大學(xué)的webseek系統,清華大學(xué)的TV-FI系統等。
傳統視頻分析技術(shù)是對底層視覺(jué)信息進(jìn)行分析處理,如顏色、紋理、輪廓。而用戶(hù)往往是從高層語(yǔ)義的角度理解整個(gè)視頻內容,例如某段視頻出現了什么物體、發(fā)生了什么事情。這之間不可避免地存在著(zhù)語(yǔ)義鴻溝(Semantic gaps)。要實(shí)現視頻內容查詢(xún),首先需要在底層視覺(jué)信息和高層語(yǔ)義之間搭建起一座橋梁。目前學(xué)術(shù)界對于該問(wèn)題的研究工作已廣泛開(kāi)展起來(lái),其中比較著(zhù)名的是運動(dòng)圖像專(zhuān)家組提出的MPEG-7標準,即多媒體內容描述接口(Multimedia Content Description Interface)。MPEG-7標準的目標就是定義一套靈活的可擴展的描述框架。該框架能夠對多媒體內容提供高效的、準確的并且具有互操作特性的語(yǔ)義描述,以便于進(jìn)一步對多媒體信息內容進(jìn)行語(yǔ)義檢索。MPEG-7對以下內容標準化:描述符(Descriptors)、描述方案(Description Schemes)、描述定義語(yǔ)言(Description Definition Language)。其中描述定義語(yǔ)言基于XML語(yǔ)言,允許對描述符和描述方案進(jìn)行靈活地定義和描述,并且具有極強的可擴展性。
評論