Linux網(wǎng)絡(luò )驅動(dòng)程序編寫(xiě)(四)
3.1 中斷共享
Linux系統運行幾個(gè)設備共享同一個(gè)中斷。需要共享的話(huà),在申請的時(shí)候指明共享方式。系統提供的request_irq()調用的定義:
int request_irq(unsigned int irq,
void (*handler)(int irq, void *dev_id, struct pt_regs *regs),
unsigned long irqflags,
const char * devname,
void *dev_id);
如果共享中斷,irqflags設置SA_SHIRQ屬性,這樣就允許別的設備申請同一個(gè)中斷。需要注意所有用到這個(gè)中斷的設備在調用request_irq()都必須設置這個(gè)屬性。系統在回調每個(gè)中斷處理程序時(shí),可以用dev_id這個(gè)參數找到相應的設備。系統在回調每個(gè)中斷處理程序時(shí),可以用dev_id這個(gè)參數找到相應的設備。一般dev_id就設為device結構本身。系統處理共享中斷是用各自的dev_id參數依次調用每一個(gè)中斷處理程序。
3.2 硬件發(fā)送忙時(shí)的處理
主CPU的處理能力一般比網(wǎng)絡(luò )發(fā)送要快,所以經(jīng)常會(huì )遇到系統有數據要發(fā),但上一包數據網(wǎng)絡(luò )設備還沒(méi)發(fā)送完。因為在Linux里網(wǎng)絡(luò )設備驅動(dòng)程序一般不做數據緩存,不能發(fā)送的數據都是通知系統發(fā)送不成功,所以必須要有一個(gè)機制在硬件不忙時(shí)及時(shí)通知系統接著(zhù)發(fā)送下面的數據。
一般對發(fā)送忙的處理在前面設備的發(fā)送方法(hard_start_xmit)里已經(jīng)描述過(guò),即如果發(fā)送忙,置tbusy為1。處理完發(fā)送數據后,在發(fā)送結束中斷里清tbusy,同時(shí)用mark_bh()調用通知系統繼續發(fā)送。
但在具體實(shí)現我的驅動(dòng)程序時(shí)發(fā)現,這樣的處理系統好象并不能及時(shí)地知道硬件已經(jīng)空閑了,即在mark_bh()以后,系統要等一段時(shí)間才會(huì )接著(zhù)發(fā)送。造成發(fā)送效率很低。2M線(xiàn)路只有10%不到的使用率。內核版本為2.0.35。
我最后的實(shí)現是不把tbusy置1,讓系統始終認為硬件空閑,但是報告發(fā)送不成功。系統會(huì )一直嘗試重發(fā)。這樣處理就運行正常了。但是遍循內核源碼中的網(wǎng)絡(luò )驅動(dòng)程序,似乎沒(méi)有這樣處理的。不知道癥結在哪里。
3.3 流量控制(flow control)
網(wǎng)絡(luò )數據的發(fā)送和接收都需要流量控制。這些控制是在系統里實(shí)現的,不需要驅動(dòng)程序做工作。每個(gè)設備數據結構里都有一個(gè)參數dev->tx_queue_len,這個(gè)參數標明發(fā)送時(shí)最多緩存的數據包。在Linux系統里以太網(wǎng)設備(10/100Mbps)標明發(fā)送時(shí)最多緩存的數據包。在Linux系統里以太網(wǎng)設備(10/100Mbps)tx_queue_len一般設置為100,串行線(xiàn)路(異步串口)為10。實(shí)際上如果看源碼可以知道,設置了dev->tx_queue_len并不是為緩存這些數據申請了空間。這個(gè)參數只是在收到協(xié)議層的數據包時(shí)判斷發(fā)送隊列里的數據是不是到了tx_queue_len的限度,以決定這一包數據加不加進(jìn)發(fā)送隊列。發(fā)送時(shí)另一個(gè)方面的流控是更高層協(xié)議的發(fā)送窗口(TCP協(xié)議里就有發(fā)送窗口)。達到了窗口大小,高層協(xié)議就不會(huì )再發(fā)送數據。
接收流控也分兩個(gè)層次。netif_rx()緩存的數據包有限制。另外高層協(xié)議也會(huì )有一個(gè)最大的等待處理的數據量。
發(fā)送和接收流控處理在net/core/dev.c的do_dev_queue_xmit()和netif_rx()中。
3.4 調試
很多Linux的驅動(dòng)程序都是編譯進(jìn)內核的,形成一個(gè)大的內核文件。但對調試來(lái)說(shuō),這是相當麻煩的。調試驅動(dòng)程序可以用module方式加載。支持模塊方式的驅動(dòng)程序必須提供兩個(gè)函數:int init_module(void)和void cleanup_module(void)。init_module()在加載此模塊時(shí)調用,在這個(gè)函數里可以register_netdev()注冊設備。init_module()返回0表示成功,返回負表示失敗。cleanup_module()在驅動(dòng)程序被卸載時(shí)調用,清除占用的資源,調用unregister_netdev()。
模塊可以動(dòng)態(tài)地加載、卸載。在2.0.xx版本里,還有kerneld自動(dòng)加載模塊,但是2.2.xx中已經(jīng)取消了kerneld。手工加載使用insmod命令,卸載用rmmod命令,看內核中的模塊用lsmod命令。
編譯驅動(dòng)程序用gcc,主要命令行參數-DKERNEL -DMODULE。并且作為模塊加載的驅動(dòng)程序,只編譯成obj形式(加-c參數)。編譯好的目標文放/lib/modules/2.x.xx/misc下,在啟動(dòng)文件里用insmod加載。
四.進(jìn)一步的閱讀
Linux程序設計資料可以從網(wǎng)上獲得。這就是開(kāi)放源代碼的好處。并且沒(méi)有什么“未公開(kāi)的秘密”。我編寫(xiě)驅動(dòng)程序時(shí)參閱的主要資料包括:
Linux內核源代碼
《The Linux Kernel Hacker’s Guide》by Michael K. Johnson
《Linux Kernel Module Programming Guide》by Ori Pomerantz
《Linux下的設備驅動(dòng)程》by olly in BBS水木清華站
可以選擇一個(gè)模板作為開(kāi)始,內核源代碼里有一個(gè)網(wǎng)絡(luò )驅動(dòng)程序的模板,drivers/net/skeleton.c。里面包含了驅動(dòng)程序的基本內容。但這個(gè)模板是以以太網(wǎng)設備為對象的,以太網(wǎng)的處理在Linux系統里有特殊“待遇”,所以如果不是以太網(wǎng)設備,有些細節上要注意,主要在初始化程序里。
最后,多參照別人寫(xiě)的程序,聽(tīng)聽(tīng)其他開(kāi)發(fā)者的經(jīng)驗之談大概是最有效的幫助了。
評論