基于神經(jīng)網(wǎng)絡(luò )的微波均衡器建模與仿真
若考慮S2=1的情況,此時(shí)把整個(gè)神經(jīng)網(wǎng)絡(luò )看成一個(gè)
其中,ci(i=1,2,…,S)為矩陣C的每一行,它代表相應神經(jīng)元徑向基函數的中心向量,b1=λ=(λ1,λ2,…λS),其中λi代表徑向基函數的方差,W2=W=(w1,w2,…,wS),則網(wǎng)路輸出為:
2.2 網(wǎng)絡(luò )的訓練
僅僅搭建這樣一個(gè)模型是沒(méi)有意義的,神經(jīng)網(wǎng)絡(luò )在實(shí)際工作之前必須進(jìn)行學(xué)習,通過(guò)學(xué)習,神經(jīng)網(wǎng)絡(luò )才能獲得一定的“智能”。
學(xué)習是神經(jīng)網(wǎng)絡(luò )一種最重要也最令人矚目的特點(diǎn)。在神經(jīng)網(wǎng)絡(luò )的發(fā)展進(jìn)程中,學(xué)習算法的研究有著(zhù)十分重要的地位。目前,人們所提出的神經(jīng)網(wǎng)絡(luò )模型都是與學(xué)習算法相對應的。所以,有時(shí)人們并不苛求對模型和算法進(jìn)行嚴格的定義或區分。有的模型可以有多種算法,而有的算法可能用于多種模型。
本文根據均衡器的傳輸特性,在訓練學(xué)習過(guò)程中,其連接權值的不斷調整以及學(xué)習修正采用BP網(wǎng)絡(luò )學(xué)習算法中的LM算法。LM算法是為了訓練中等規模的前饋神經(jīng)網(wǎng)絡(luò )而提出的最快速算法,它對MATLAB實(shí)現也是相當有效的,在BP網(wǎng)絡(luò )的眾多學(xué)習算法中,通常對于包含數百個(gè)權值的函數逼近網(wǎng)絡(luò ),LM算法的收斂速度最快。如果要求的精度比較高,則該算法的優(yōu)點(diǎn)尤其突出。在許多情況下,采用LM算法的訓練函數trainlm可以獲得比其他算法更小的均方誤差。
LM算法實(shí)際上是梯度下降法和牛頓法的結合。梯度下降法在開(kāi)始的幾步下降較快,當接近最優(yōu)值時(shí),由于梯度趨于零,使得目標函數下降緩慢;而牛頓法可以在最優(yōu)值附近產(chǎn)生一個(gè)理想的搜索方向。其主要算法為:
其中J是包含網(wǎng)絡(luò )誤差對權值及閾值的一階導數的雅可比矩陣。
牛頓法能夠更快更準確地逼近一個(gè)最小誤差,在每一步成功后,μ都會(huì )減小,只有當發(fā)現下一步輸出變壞時(shí)才增加μ。按這種方法,算法的每一步運行都會(huì )使目標函數向好的方向發(fā)展。
算法開(kāi)始時(shí),μ取小值μ=0.001。如果某一步不能減小E,則將μ乘以10后再重復這步,最后使E下降。如果某一步產(chǎn)生了更小的E,則將μ乘以0.1繼續運行。算法的執行步驟如圖3所示。
對于RBF網(wǎng)絡(luò )與BP網(wǎng)絡(luò )的主要區別在于使用不同的作用函數,BP網(wǎng)絡(luò )中的隱層節點(diǎn)使用的是Sigmoid函數,其函數值在輸入空間中無(wú)限大的范圍內為非零值。而RBF網(wǎng)絡(luò )的作用函數為高斯函數,因而其對任意的輸入均有高斯函數值大于零的特性,從而失去調整權值的優(yōu)點(diǎn)。但加入LM算法進(jìn)行網(wǎng)絡(luò )訓練后,RBF網(wǎng)絡(luò )也同樣具備局部逼近網(wǎng)絡(luò )學(xué)習收斂快的優(yōu)點(diǎn),可在一定程度上克服高斯函數不具備緊密性的缺點(diǎn)。由于RBF網(wǎng)絡(luò )采用高斯函數,表示形式簡(jiǎn)單,即使對于多變量輸入也不增加太多的復雜性。
2.3 仿真設計結果
帶通濾波器相關(guān)文章:帶通濾波器設計
評論