機器人語(yǔ)音識別系統的設計
機器人聽(tīng)覺(jué)系統主要是對人的聲音進(jìn)行語(yǔ)音識別并做出判斷,然后輸出相應的動(dòng)作指令控制頭部和手臂的動(dòng)作,傳統的機器人聽(tīng)覺(jué)系統一般是以PC機為平臺對機器人進(jìn)行控制,其特點(diǎn)是用一臺計算機作為機器人的信息處理核心通過(guò)接口電路對機器人進(jìn)行控制,雖然處理能力比較強大,語(yǔ)音庫比較完備,系統更新以及功能拓展比較容易,但是比較笨重,不利于機器人的小型化和復雜條件下進(jìn)行工作,此外功耗大、成本高。
本次設計采用了性?xún)r(jià)比較高的數字信號處理芯片TMS320VC5509作為語(yǔ)音識別處理器,具有較快的處理速度,使機器人在脫機狀態(tài)下,獨立完成復雜的語(yǔ)音信號處理和動(dòng)作指令控制,FPGA系統的開(kāi)發(fā)降低了時(shí)序控制電路和邏輯電路在PCB板所占的面積,使機器人的"大腦"的語(yǔ)音處理部分微型化、低功耗。一個(gè)體積小、低功耗、高速度能完成特定范圍語(yǔ)音識別和動(dòng)作指令的機器人系統的研制具有很大的實(shí)際意義。
2 系統硬件總體設計
系統的硬件功能是實(shí)現語(yǔ)音指令的采集和步進(jìn)電機的驅動(dòng)控制,為系統軟件提供開(kāi)發(fā)和調試平臺。如圖1所示。
系統硬件分為語(yǔ)音信號的采集和播放,基于DSP的語(yǔ)音識別,FPGA動(dòng)作指令控制、步進(jìn)電機及其驅動(dòng)、DSP外接閃存芯片,JTAG口仿真調試和鍵盤(pán)控制幾個(gè)部分。工作流程是麥克風(fēng)將人的語(yǔ)音信號轉化為模擬信號,在經(jīng)過(guò)音頻芯片TLV320AIC23量化轉化成數字信號輸入DSP.DSP完成識別后,輸出動(dòng)作指令。
FPGA根據DSP輸入的動(dòng)作指令產(chǎn)生正確的正反轉信號和準確的脈沖給步進(jìn)電機驅動(dòng)芯片,驅動(dòng)芯片提供步進(jìn)電機的驅動(dòng)信號,控制步進(jìn)電機的轉動(dòng)。片外 FLASH用于存儲系統程序和語(yǔ)音庫并完成系統的上電加載。JTAG口用于與PC機進(jìn)行聯(lián)機在線(xiàn)仿真,鍵盤(pán)則用于參數調整和功能的切換。
3 語(yǔ)音識別系統設計
3.1 語(yǔ)音信號的特點(diǎn)
語(yǔ)音信號的頻率成分主要分布在300~3400Hz之間,根據采樣定理選擇信號的采樣率為8 kHz。語(yǔ)音信號的一個(gè)特點(diǎn)在于他的"短時(shí)性",有時(shí)在一個(gè)短時(shí)段呈現隨機噪聲的特性,而另一段表現周期信號的特性,或二者兼而有之。語(yǔ)音信號的特征是隨時(shí)間變化的,只有一段時(shí)間內,信號才表現穩定一致的特征,一般來(lái)說(shuō)短時(shí)段可取5~50 ms,因此語(yǔ)音信號的處理要建立在其"短時(shí)性"上[2],系統將語(yǔ)音信號幀長(cháng)設為20 ms,幀移設為10 ms,則每幀數據為160×16 b。
3.2 語(yǔ)音信號的采集和播放
語(yǔ)音采集和播放芯片采用的是TI公司生產(chǎn)的TLV320AIC23B,TLV320AIC23B的模數轉換(ADC)和數模轉換(DAC)部件高度集成在芯片內部,芯片采用8 k采樣率,單聲道模擬信號輸入,雙聲道輸出。TLV320AIC23具有可編程特性,DSP可通過(guò)控制接口來(lái)編輯該器件的控制寄存器,而且能夠編譯 SPI,I2C兩種規格的接口,TLV320AIC23B與DSP5509的電路連接如圖2所示。
DSP采用I2C口對TLV320AIC23的寄存器進(jìn)行設置。當MODE=O時(shí),為I2C規格的接口,DSP采用主發(fā)送模式,通過(guò)I2C口對地址為 0000000~0001111的11個(gè)寄存器進(jìn)行初始化。I2C模式下,數據是分為3個(gè)8 b寫(xiě)入的。而TLV320AIC23有7位地址和9位數據,也就是說(shuō),需要把數據項上面的最高位補充到第二個(gè)8 B中的最后一位。
MCBSP串口通過(guò)6個(gè)引腳CLKX,CLKR,FSX,FSR,DR和CX與TLV320AIC23相連。數據經(jīng)MCBSP串口與外設的通信通過(guò)DR和 DX引腳傳輸,控制同步信號則由CLKX,CLKR,FSX,FSR四個(gè)引腳實(shí)現。將MCBSP串口設置為DSP Mode模式,然后使串口的接收器和發(fā)送器同步,并且由TLV320AIC23的幀同步信號LRCIN,LRCOUT啟動(dòng)串口傳輸,同時(shí)將發(fā)送接收的數據字長(cháng)設定為32 b(左聲道16 b,右聲道16 b)單幀模式。
3.3 語(yǔ)音識別程序模塊的設計
為了實(shí)現機器人對非特定人語(yǔ)音指令的識別,系統采用非特定人的孤立詞識別系統。非特定人的語(yǔ)音識別是指語(yǔ)音模型由不同年齡、不同性別、不同口音的人進(jìn)行訓練,在識別時(shí)不需要訓練就可以識別說(shuō)話(huà)人的語(yǔ)音[2]。系統分為預加重和加窗,短點(diǎn)檢測,特征提取,與語(yǔ)音庫的模式匹配和訓練幾個(gè)部分。
3.3.1 語(yǔ)音信號的預加重和加窗
預加重處理主要是去除聲門(mén)激勵和口鼻輻射的影響,預加重數字濾波H(Z)=1一KZ-1,其中是為預加重系數,接近1,本系統中k取0.95。對語(yǔ)音序列X(n)進(jìn)行預加重,得到預加重后的語(yǔ)音序列x(n):x(n)=X(n)一kX(n一1) (1)
系統采用一個(gè)有限長(cháng)度的漢明窗在語(yǔ)音序列上進(jìn)行滑動(dòng),用以截取幀長(cháng)為20 ms,幀移設為10 ms的語(yǔ)音信號,采用漢明窗可以有效減少信號特征的丟失。
3.3.2 端點(diǎn)檢測
端點(diǎn)檢測在詞與詞之間有足夠時(shí)間間隙的情況下檢測出詞的首末點(diǎn),一般采用檢測短時(shí)能量分布,方程為:
其中,x(n)為漢明窗截取語(yǔ)音序列,序列長(cháng)度為160,所以N取160,為對于無(wú)音信號E(n)很小,而對于有音信號E(n)會(huì )迅速增大為某一數值,由此可以區分詞的起始點(diǎn)和結束點(diǎn)。
3.3.3特征向量提取
特征向量是提取語(yǔ)音信號中的有效信息,用于進(jìn)一步的分析處理。目前常用的特征參數包括線(xiàn)性預測倒譜系數LPCC、美爾倒譜系數MFCC等。語(yǔ)音信號特征向量采用Mel頻率倒譜系數MFCC(Mel Frequency Cepstrum Coeficient的提取,MFCC參數是基于人的聽(tīng)覺(jué)特性的,他利用人聽(tīng)覺(jué)的臨界帶效應,采用MEL倒譜分析技術(shù)對語(yǔ)音信號處理得到MEL倒譜系數矢量序列,用MEL倒譜系數表示輸入語(yǔ)音的頻譜。在語(yǔ)音頻譜范圍內設置若干個(gè)具有三角形或正弦形濾波特性的帶通濾波器,然后將語(yǔ)音能量譜通過(guò)該濾波器組,求各個(gè)濾波器輸出,對其取對數,并做離散余弦變換(DCT),即可得到MFCC系數。MFCC系數的變換式可簡(jiǎn)化為:
其中,i為三角濾波器的個(gè)數,本系統選P為16,F(k)為各個(gè)濾波器的輸出數據,M為數據長(cháng)度。
3.3.4 語(yǔ)音信號的模式匹配和訓練
模型訓練即將特征向量進(jìn)行訓練建立模板,模式匹配即將當前特征向量與語(yǔ)音庫中的模板進(jìn)行匹配得出結果。語(yǔ)音庫的模式匹配和訓練采用隱馬爾可夫模型HMM (Hidden Markov Models),他是一種統計隨機過(guò)程統計特性的概率模型一個(gè)雙重隨機過(guò)程,因為隱馬爾可夫模型能夠很好地描述語(yǔ)音信號的非平穩性和可變性,因此得到廣泛的使用。
HMM的基本算法有3種:Viterbi算法,前向一后向算法,Baum-Welch算法。本次設計使用Viterbi算法進(jìn)行狀態(tài)判別,將采集語(yǔ)音的特征向量與語(yǔ)音庫的模型進(jìn)行模式匹配。Baum-Welch算法用來(lái)解決語(yǔ)音信號的訓練,由于模型的觀(guān)測特征是幀間獨立的,從而可以使用Baum- Welch算法進(jìn)行HMM模型的訓練。
評論