<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 嵌入式系統 > 設計應用 > 基于神經(jīng)網(wǎng)絡(luò )的自主吸塵機器人混合視覺(jué)研究

基于神經(jīng)網(wǎng)絡(luò )的自主吸塵機器人混合視覺(jué)研究

作者: 時(shí)間:2012-06-29 來(lái)源:網(wǎng)絡(luò ) 收藏

BP算法框圖

圖4給出了BP算法的程序流程圖。在執行算法之前,首先要設置變量和參量。其中:Wmi(n)為第n次迭代時(shí)輸入層與隱層I之間的權值向量;Wip(n)為第n次迭代時(shí)輸出層與隱層I之間的權值向量;n為迭代次數,K為訓練樣本的下標,Maxloop為最大迭代次數,Maxtrain為訓練樣本的總數,ξ為能量最小誤差。

仿真結果

用FoxPro建立輸入樣本的數據庫,用VC編程訓練網(wǎng)絡(luò )。訓練時(shí)用了72組輸入樣本,并且循環(huán)4000次訓練網(wǎng)絡(luò ),訓練時(shí)間15s。表1給出了部分訓練樣本的示例(P0表示樣本0,以下同)。


表1 訓練樣本示例

初始權值為-0.01~0.01的隨機數值。下面給出了網(wǎng)絡(luò )訓練的權值輸出。

輸入層與隱層權值

0.251,-9.187,2.347
0.231,-9.225,2.373
0.266,-9.213,2.331
4.722,-1.479,-1.470
0.214,2.520,-9.067
0.293,2.512,-9.013
0.275,2.442,-8.890

輸出層與隱層權值

-11.843,-5.154,-4.722,6.348
9.970,10.696,-10.990,-11.535
9.938,-9.617,10.613,-12.470

為了驗證訓練權值的正確性與強壯性,對大量的輸入樣本(包括沒(méi)有經(jīng)歷訓練過(guò)程的樣本)進(jìn)行實(shí)驗,網(wǎng)絡(luò )產(chǎn)生相匹配的輸出。實(shí)驗結果表明,網(wǎng)絡(luò )的訓練是成功的。

部分實(shí)驗數據如下:

輸入數據組數:6
第0組輸入數據:0000000
第0組輸出為:1000
第1組輸入數據:0001000
第1組輸出為:0001
第2組輸入數據:1101000
第2組輸出為:0010
第3組輸入數據:1110000
第3組輸出為:1010
第4組輸入數據:0001100
第4組輸出為:0100
第5組輸入數據:1101001
第5組輸出為:0001

最后利用Matlab提供的Neural Network工具箱,對訓練網(wǎng)絡(luò )的輸出和相應的期望輸出進(jìn)行衰退分析,以測定訓練網(wǎng)絡(luò )的性能。圖5為前面訓練所用的72組輸入數據產(chǎn)生的輸出A和期望輸出T的衰退分析圖。其中虛線(xiàn)為最佳線(xiàn)性擬合曲線(xiàn)A=T,實(shí)線(xiàn)為72組輸出A與相應的期望輸出T的線(xiàn)性擬合。由圖5可以看出,擬合效果理想,因此訓練網(wǎng)絡(luò )的性能可靠。

實(shí)際應用過(guò)程的思路為:將BP網(wǎng)絡(luò )訓練的權值移植到機器人的處理器中;7組傳感器按順序輪流工作,每循環(huán)一次得到一組輸入作為的輸入;通過(guò)計算得到匹配的實(shí)時(shí)輸出;行走電機根據輸出信號作出相應的避障行為。

本文將融合進(jìn)自主吸塵機器人的視覺(jué)系統,從而獲得相對于單一傳感器更加準確和全面的障礙物信息。采用了基于神經(jīng)網(wǎng)絡(luò )的多傳感器信息融合算法,通過(guò)網(wǎng)絡(luò )訓練,機器人能夠對訓練過(guò)程中沒(méi)有經(jīng)歷的實(shí)際情況做出合理的反應。這種算法的魯棒性和容錯性很強,能夠適應自主吸塵機器人非結構化的工作環(huán)境。


上一頁(yè) 1 2 下一頁(yè)

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>