一種面向云架構的高性能網(wǎng)絡(luò )接口實(shí)現技術(shù)
實(shí)驗結果如圖5所示,可以得出傳統網(wǎng)絡(luò )接口實(shí)現模式下性能的峰值在180Kpps左右,而且隨著(zhù)網(wǎng)絡(luò )數據流量的增大,性能呈現下降趨勢,主要因為隨著(zhù)網(wǎng)絡(luò )流量的增加,額外的系統開(kāi)銷(xiāo)也在不斷增加。HPNI模式下性能峰值在1.8Mpps左右,而且隨著(zhù)網(wǎng)絡(luò )流量的增加,性能比較穩定,抗沖擊力比較強。
本文引用地址:http://dyxdggzs.com/article/270287.htm

圖5 單線(xiàn)程模式下性能測試結果
3.2實(shí)驗二
采用與實(shí)驗一相同的硬件環(huán)境,同時(shí)開(kāi)啟多個(gè)相同的任務(wù)線(xiàn)程,每個(gè)線(xiàn)程在一個(gè)任務(wù)循環(huán)內完成收包、改包、發(fā)包的工作,比較兩種接口模式在多核多任務(wù)配置下的性能。另外,在HPNI模式下同時(shí)使能網(wǎng)卡的RSS功能,生成多個(gè)隊列分別對應每個(gè)任務(wù)線(xiàn)程,每個(gè)任務(wù)線(xiàn)程靜態(tài)綁定一個(gè)CPU核心,如圖6所示。

圖6 多核多線(xiàn)程模式下網(wǎng)絡(luò )接口性能分析
實(shí)驗結果如圖7所示,在傳統網(wǎng)絡(luò )接口實(shí)現模式下,因為受限于Linux內核處理的瓶頸,即使采用了多線(xiàn)程并發(fā),其性能峰值仍然處于180Kpps左右。HPNI卻能很好地利用多線(xiàn)程的并發(fā),在網(wǎng)卡RSS功能的配合之下性能得到成倍的提高。也可以看到多核下面HPNI的性能并不是一直隨著(zhù)核數的增加而線(xiàn)性增加的,主要因為CPU內的核心之間并不是完全獨立的,它們之間也存在一些共享資源的競爭,比如總線(xiàn)的訪(fǎng)問(wèn),從而對性能產(chǎn)生一些負面的影響。

圖7 多核多線(xiàn)程模式下網(wǎng)絡(luò )接口性能測試結果
4結語(yǔ)
本文分析了傳統Linux下網(wǎng)絡(luò )接口實(shí)現的性能瓶頸,針對其不足提出了一種新型的網(wǎng)絡(luò )接口實(shí)現模式。實(shí)驗結果表明,HPNI可以達到12Mpps的包轉發(fā)速率,完全可以勝任核心路由網(wǎng)絡(luò )以外網(wǎng)絡(luò )聚合點(diǎn)的工作,比如小型企業(yè)網(wǎng)關(guān)等。另外,因為HPNI的容量可以動(dòng)態(tài)調整,因此可以以較高的性?xún)r(jià)比實(shí)現各種性能要求的網(wǎng)絡(luò )轉發(fā)節點(diǎn)?;谕ㄓ锰幚砥骱蜆藴什僮飨到y的特性,也使得HPNI能夠快速地部署到SDN中。HPNI既可以直接部署在IT server上,也可以部署在虛擬機當中,從而實(shí)現高速NFV的功能。當然,HPNI也存在一點(diǎn)不足,因為采用了輪詢(xún)模式,雖然保證了數據處理的實(shí)時(shí)性,但也導致了較大的CPU負載,當網(wǎng)絡(luò )流量很低的時(shí)候,系統資源利用率不是很高。后續可以針對此點(diǎn)做一些優(yōu)化,比如結合機器學(xué)習算法對輸入數據流量進(jìn)行預測,當輸入流量降低時(shí)通過(guò)CPU提供的pause指令降低CPU負載,從而降低系統資源的使用。
評論