<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 消費電子 > 設計應用 > 一款語(yǔ)音口令識別系統的設計實(shí)現

一款語(yǔ)音口令識別系統的設計實(shí)現

作者: 時(shí)間:2014-03-17 來(lái)源:網(wǎng)絡(luò ) 收藏

CDHMM的B不再是一個(gè)矩陣,而是一組觀(guān)察值概率密度函數,由M個(gè)連續高斯密度函數描述:

本文引用地址:http://dyxdggzs.com/article/234840.htm

?

?

N(o,ujk,∑jk)為多維高斯概率密度函數,o是觀(guān)察矢量序列,即從語(yǔ)音中提取的特征矢量參數(o1,o2,…,ot),t為觀(guān)察矢量序列的時(shí)間長(cháng)度。ujk,∑jk分別為高斯分布的均值和方差參數,Cjk為高斯分布的權值,滿(mǎn)足約束條件

?

基于嵌入式系統的語(yǔ)音口令識別系統的實(shí)現

?

CDHMM參數估計采用“分段K-平均法”。初始模型可以隨機選取,由

?

基于嵌入式系統的語(yǔ)音口令識別系統的實(shí)現

?

是改進(jìn)后的模型,再將作為初始值,重新估計。

基于“分段K-平均法”的CDHMM參數估計具體過(guò)程為:

(1)設置模型參數初始值λ=(π,A,B)。

(2)根據此λ用Viterbi算法將輸入的訓練語(yǔ)音數據劃分為最可能的狀態(tài)序列,利用狀態(tài)序列估計參數A。

?

?

(3)用分段K-平均法對B進(jìn)行重新估計,即將第二步得到的每一種狀態(tài)的訓練語(yǔ)音數據搜集在一起并對其特征進(jìn)行統計,從而得到B。

?

?

對于概率密度函數由若干正態(tài)分布函數線(xiàn)性相加的CDHMM系統,每個(gè)狀態(tài)θj(1≤j≤N)的概率密度函數bj(X)由K個(gè)正態(tài)分布函數線(xiàn)性相加而成,這樣可以把每一狀態(tài)語(yǔ)音幀分成K類(lèi),然后計算同一類(lèi)中諸語(yǔ)音幀矢量X的均值矢量,方差矩陣∑jk和混合密度函數中各概率密度函數的權重系數 Cjk。

(4)由(2)和(3)估計的CDHMM參數作為初值,利用重估公式對CDHMM參數進(jìn)行重估,得到參數。

(5)利用(4)所得的計算,并與p(O/λ)相比較。如果差值小于預定的閾值或迭代次數超過(guò)預定的次數,即說(shuō)明模型參數已經(jīng)收斂,無(wú)需進(jìn)行重估計算,可將作為模型參數輸出。反之,若差值超出閾值或迭代未到預定的次數,則將計算結果作為新的初值,重復進(jìn)行下一次迭代。

3 結束語(yǔ)

論文建立了一種基于的語(yǔ)音口令識別系統,并且對上升、下降等14條口令進(jìn)行測試,每條語(yǔ)音先切除靜音,預加重,然后通過(guò) Hamming窗分幀處理,幀長(cháng)和幀移分別為20ms和10ms,然后對每一幀語(yǔ)音信號提取16MFCC+16AMFCC共32維參數作為特征矢量。該語(yǔ)音口令識別系統達到了實(shí)時(shí)的要求,可以使語(yǔ)音口令識別系統廣泛應用于便攜式設備中。


上一頁(yè) 1 2 下一頁(yè)

關(guān)鍵詞: 語(yǔ)音識別 嵌入式系統

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>