Linux嵌入式視頻直播監控系統
摘要:本文以嵌入式處理器和Linux為開(kāi)發(fā)平臺,利用嵌入式軟件開(kāi)發(fā)技術(shù),Linux下圖像采集技術(shù),MPEG-4壓縮技術(shù),RTP傳輸技術(shù),Linux幀緩沖機制等設計并實(shí)現了嵌入式視頻直播監控系統。
關(guān)鍵詞:視頻監控,MPEG-4,RTP/RTCP,幀緩沖
Abstract:This paper described how to design and complete an Embedded Video Living Monitoring System, which depended on embedded software developing, Linux graph collection, MPEG-4 compression, RTP translation, Linux framebuffer and use embedded CPU and Linux as developing platform.
Key words: Video Monitoring,MPEG-4,RTP/RTCP,framebuffer
1 引言
近年來(lái),隨著(zhù)網(wǎng)絡(luò )帶寬,計算機處理能力的極大提高和人們安全防范觀(guān)念的加強,視頻監控領(lǐng)域進(jìn)入了高速發(fā)展的數字化的網(wǎng)絡(luò )時(shí)代。但嵌入式處理器具有低功耗、體積小、經(jīng)濟、穩定的特點(diǎn);Linux作為一個(gè)開(kāi)源軟件,具有成本低廉的優(yōu)勢,同時(shí)兼具安全、穩定的特點(diǎn)。因此,以嵌入式處理器作為硬件平臺,以L(fǎng)inux作為軟件平臺的視頻監控系統能夠結合兩者的優(yōu)點(diǎn),必將成為未來(lái)的發(fā)展方向。本文介紹了一種Linux嵌入式視頻直播監控系統的設計和實(shí)現方案。
2 系統概述
圖 1 系統結構圖
系統采用服務(wù)器/客戶(hù)機架構,分別使用Intel Xscale PXA270、PXA255作為服務(wù)器、客戶(hù)機硬件平臺,并基于Linux (kernel version:2.6.12)操作系統進(jìn)行開(kāi)發(fā)。服務(wù)器采集視頻,壓縮后通過(guò)局域網(wǎng)傳遞給客戶(hù)機;客戶(hù)機接收數據,解壓縮后播放。
服務(wù)器通過(guò)USB攝像頭采集YUV格式視頻,然后進(jìn)行MPEG-4壓縮,將壓縮后的MPEG-4幀進(jìn)行RTP封裝,并通過(guò)RTP協(xié)議進(jìn)行傳輸??蛻?hù)機接收RTP數據包,將數據組成一幀,然后進(jìn)行MPEG-4解壓縮,得到YUV格式視頻。然而計算機只能顯示RGB格式視頻,因此通過(guò)圖像格式轉換成RGB格式。最后,利用Linux下的幀緩沖機制進(jìn)行寫(xiě)屏,從而實(shí)現了視頻回放。
3系統軟件設計與實(shí)現
3.1V4L視頻采集
Video4Linux(簡(jiǎn)稱(chēng)V4L)是Linux中關(guān)于視頻設備的內核驅動(dòng),它為針對視頻設備的應用程序編程提供一系列接口函數,這些視頻設備包括現今市場(chǎng)上流行的TV卡、視頻捕捉卡和USB攝像頭等。對于USB口攝像頭,其驅動(dòng)程序中需要提供基本的I/O操作接口函數open,read,write,close的實(shí)現、對中斷的處理實(shí)現、內存映射功能以及對I/O通道的控制接口函數ioctl的實(shí)現等,并把它們定義在結構體file_operations中。這樣當應用程序對設備文件進(jìn)行諸如open,close,read,write等系統調用操作時(shí),Linux內核將通過(guò)file_operations結構訪(fǎng)問(wèn)驅動(dòng)程序提供的函數。
具體采集工作通過(guò)操作ioctl和mmap系統調用進(jìn)行實(shí)現。ioctl實(shí)際上是input/output control的縮寫(xiě)。ioctl系統調用的功能就是通過(guò)打開(kāi)的文件描述符對各種文件尤其是字符設備文件進(jìn)行控制,完成特定的I/O操作。在本系統中,使用ioctl(fd, VIDIOCGCAP, cap)以獲取攝像頭基本信息;使用ioctl(fd, VIDIOCGMBUF, *mbuf)以獲取攝像頭緩沖區信息;使用ioctl(fd, VIDIOCMCAPTURE, mm)進(jìn)行圖像捕捉;使用ioctl(fd, VIDIOCSYNC, frame)等待捕捉完該幀圖像。mmap調用的功能是實(shí)現內存映射,即將指定文件或對象的一部分映射到內存中去。這樣可以通過(guò)訪(fǎng)問(wèn)特定的內存區域來(lái)直接對文件或對象進(jìn)行存取。與read和write。調用相比,這種I/O方式的效率要高得多。
3.2MPEG-4壓縮和解壓縮
MPEG是Moving Pictures Experts Group(運動(dòng)圖像專(zhuān)家組)的縮寫(xiě)。MPEG-4由MPEG制定,并于1999年2月正式成為ISO/IEC 14496國際標準。MPEG-4的壓縮方法不同于MPEG1/2或H.263+系列標準,它是基于對象的多媒體數據壓縮編碼國際標準,定義的是一種框架、一種格式,而不是一種具體的算法。它在多媒體環(huán)境下提供的基于不同對象的處理方法對自然或合成的音頻、視頻進(jìn)行壓縮編碼,由一系列支持在該應用領(lǐng)域下的工具組成,能夠針對不同的應用組合使用不同的編碼工具,提供如形狀編碼、運動(dòng)估計和運動(dòng)補償編碼、紋理編碼和容錯編碼等技術(shù)。
本系統借助于MPEG-4開(kāi)源庫Xvidcore作為編/解碼庫。具體選用版本1.1.2。Xvidcore中所有的編碼工作都是通過(guò)編碼函數xvid_encore執行的,xvide_encore函數定義如下:
int xvid_encore(void * handle, int opt, void * paraml, void * param2);
其中opt為編碼所要做的操作,opt有以下三種操作:(1)XVID_ENC_CREATE:創(chuàng )建一個(gè)新的編碼器,則param1為XVID_ENC_PARAM, handle為新編碼的句柄;(2)XVID_ENC_ENCODE:編碼一幀,則param1為XVID_ENC_FRAME, param2為XVID_ ENC_ STATS或NULL;(3)XVID_DEC_DESTROY:編碼結束,不返回任何句柄。
Xvidcore的所有解碼工作都是由xvid_decore實(shí)現的,xvid_decore函數定義如下:
int xvid_decore(void * handle, int opt, void * param1, void * param2);
其中opt為解碼所要做的操作,opt有以下三種操作:(1)XVID_DEC_CREATE:創(chuàng )建一個(gè)新的解碼器,則param1為XVID_DEC_PARAM,handle為新編碼的句柄;(2)XVID_DEC_DECODE: 解碼一幀,則param1為XVID_ENC_FRAME;(3)XVID_DEC_DESTROY: 關(guān)掉解碼器,不返回任何句柄。
系統通過(guò)采集模塊采集得到YUV420格式的視頻幀存放在緩沖區中,Xvidcore取出該緩沖區存放的原始幀數據,調用xvid_encore函數進(jìn)行編碼。接收端調用xvid_decore函數對收到的幀進(jìn)行解碼。從而實(shí)現了MPEG-4的壓縮和解壓縮。
3.3RTP傳輸
實(shí)時(shí)傳輸協(xié)議(Real-time Transport Protocol,RTP)是在 Internet 上處理多媒體數據流的一種網(wǎng)絡(luò )協(xié)議,利用它能夠在一對一(unicast,單播)或者一對多(multicast,多播)的網(wǎng)絡(luò )環(huán)境中實(shí)現傳流媒體數據的實(shí)時(shí)傳輸。我們采用開(kāi)源代碼Jrtplib提供的RTP協(xié)議棧。最新的Jrtplib對RFC3550的實(shí)現進(jìn)行了封裝,使用C++語(yǔ)言開(kāi)發(fā),能夠在多種平臺如Linux和Windows下運行。
在網(wǎng)絡(luò )帶寬比較低的情況下,數據丟幀現象比較嚴重,這對于圖像質(zhì)量有很大的影響。我們采用拆幀以后再發(fā)送的方法,來(lái)降低丟幀率。接收端收到數據后,再把屬于同一視頻幀的數據組合起來(lái)。由于目前常用網(wǎng)絡(luò )是802.3的10Mb/s系統,而該系統最大有效載荷為1500字節,因此設置1400為RTP包大小上限。網(wǎng)絡(luò )發(fā)送接收程序流程圖如圖2所示。
圖2 網(wǎng)絡(luò )發(fā)送接收程序流程圖
簡(jiǎn)單的說(shuō),發(fā)送端發(fā)送RTP包到Client端,發(fā)送的時(shí)候是分批以數據包的形式發(fā)送到Client,就是說(shuō)發(fā)送一個(gè)RTP包需要幾次數據包發(fā)送來(lái)完成。發(fā)送成功以后發(fā)送下一個(gè)數據包,通過(guò)調用Jrtplib中函數SendPacket()實(shí)現;
接收端依次循環(huán)調用函數GetNextPacket()來(lái)接收某一RTP包的數據,數據包到來(lái)不是按順序到來(lái)的,完全接收到RTP包所用的數據包以后,根據時(shí)間戳對所接收的數據包重新排序重新生成最初的RTP包。接收成功后,調用函數GotoNextSourceWithData()開(kāi)始接收下一個(gè)RTP包。
3.4寫(xiě)framebuffer進(jìn)行播放
framebuffer設備是圖形硬件的抽象概念,意指某些視頻硬件的幀緩沖,使得應用軟件可以通過(guò)定義好的接口訪(fǎng)問(wèn)圖形硬件。framebuffer將顯示的象素點(diǎn)看成是內存的映射,屏幕上每一個(gè)點(diǎn)對應framebuffer內存中相應的單元。幀緩沖設備為標準字符設備,主設備號為29,次設備號從0到31,分別對應/dev/fb0-/dev/fb31,默認為/dev/fb0。通過(guò)/dev/fb0,應用程序主要完成以下幾種操作:
1. I/O控制(ioctl)操作:對于幀緩沖設備,對設備文件的ioctl操作可讀取(FBIOGET_SCREElVINFO,FBIOGET_SCREElVINFO)和設置(FBIOPUT_VSCREElVINFO, FBIOPUT_FSCREElVINFO)顯示設備及屏幕的參數,如分辨率、顯示顏色數、屏幕大小等。
2. 映射(mmap)操作:工作在保護模式的應用程序有自己的虛擬地址空間,但不能直接訪(fǎng)問(wèn)物理緩沖區地址,為此可以使用mmap函數將文件的內容映射到用戶(hù)空間。之后用戶(hù)就可以通過(guò)讀寫(xiě)這段虛擬地址訪(fǎng)問(wèn)屏幕緩沖區在屏幕上繪圖了。
4結束語(yǔ)
本文提出了一種Linux視頻直播監控系統的設計和實(shí)現方案。經(jīng)過(guò)對系統的測試表明:當客戶(hù)端向服務(wù)器請求現場(chǎng)音視頻流時(shí),服務(wù)器端立刻向通過(guò)客戶(hù)端發(fā)送音視頻流,客戶(hù)端軟件實(shí)時(shí)接收、實(shí)時(shí)解碼、實(shí)時(shí)播放,都能流暢的播放出清晰畫(huà)面,無(wú)明顯抖動(dòng)和延時(shí)。服務(wù)器和客戶(hù)機可以穩定運行。服務(wù)器穩定后,CPU利用率達60%-70%,客戶(hù)機穩定后,CPU利用率達70%-80%。系統穩定后,占用帶寬約400kbit/s-500kbit/s,播放幀率約14f/s,能夠滿(mǎn)足一般情況下視頻監控要求。
本論文的新見(jiàn)解主要體現在:
(1)提出了一套簡(jiǎn)單易行的流媒體直播系統解決方案,并將其應用于嵌入式平臺。
(2)傳輸過(guò)程中對RTP數據包的大小進(jìn)行控制,大大降低了丟幀率。
參考文獻:
[1] 陳章龍等. 嵌入式技術(shù)與系統――Intel XScale結構與開(kāi)發(fā). [M]北京 北京航空航天大學(xué)出版社,2004
[2] 魯比尼. Linux設備驅動(dòng)程序(第二版) [M] 北京:電力出版社,2002
[3] 鐘玉琢. 流媒體和視頻服務(wù)器. [M] 北京:清華大學(xué)出版社.2003. 6
[4] 吳昱軍. 媒體實(shí)時(shí)傳輸協(xié)議及其在視頻傳輸系統中的運用.微計算機信息.2003.19
linux操作系統文章專(zhuān)題:linux操作系統詳解(linux不再難懂)
評論