谷歌開(kāi)源AI能區分聲音 準確率達92%
據VentureBeat報道,在語(yǔ)音嘈雜的環(huán)境中,要想分辨出有幾個(gè)人講話(huà)、在什么時(shí)間講話(huà),對于機器來(lái)說(shuō)非常困難。但谷歌人工智能(AI)研究部門(mén)在語(yǔ)音識別方面取得了新進(jìn)展,能以92%的準確率識別出每個(gè)人聲音的專(zhuān)屬模式。
本文引用地址:http://dyxdggzs.com/article/201811/395014.htm谷歌AI研究部門(mén)在最新名為《FullySupervisedSpeakerDiarization》的論文和相關(guān)博客文章中,研究人員描述了一種新的AI系統,它“能以一種更有效的方式識別聲音”。
這套系統涉及到Speakerdiarization任務(wù),即需要標注出“誰(shuí)”從“什么時(shí)候”到“什么時(shí)候”在說(shuō)話(huà),將語(yǔ)音樣本分割成獨特的、同構片段的過(guò)程。強大的AI系統必須能夠將新的演講者發(fā)音與它以前從未遇到過(guò)的語(yǔ)音片段關(guān)聯(lián)起來(lái)。
這篇論文的作者聲稱(chēng),核心算法已經(jīng)可在Github上的開(kāi)源軟件中可用,它實(shí)現了一個(gè)在線(xiàn)二值化錯誤率(DER),在NISTSRE2000CALLHOME基準上是7.6%,這對于實(shí)時(shí)應用來(lái)說(shuō)已經(jīng)足夠低了,而谷歌之前使用的方法DER為8.8%。
谷歌研究人員的新方法是通過(guò)遞歸神經(jīng)網(wǎng)絡(luò )(RNN)模擬演講者的嵌入(如詞匯和短語(yǔ)的數學(xué)表示),遞歸神經(jīng)網(wǎng)絡(luò )是一種機器學(xué)習模型,它可以利用內部狀態(tài)來(lái)處理輸入序列。每個(gè)演講者都從自己的RNN實(shí)例開(kāi)始,該實(shí)例不斷更新給定新嵌入的RNN狀態(tài),使系統能夠學(xué)習發(fā)言者共享的高級知識。
研究人員在論文中寫(xiě)道:“由于該系統的所有組件都可以在監督環(huán)境下學(xué)習,所以在有高質(zhì)量時(shí)間標記演講者標簽訓練數據的情況下,它比無(wú)監督系統更受青睞。我們的系統受到全面監督,能夠從帶有時(shí)間戳的演講者標簽例子中學(xué)習?!?/p>
在未來(lái)的工作中,研究團隊計劃改進(jìn)模型,使其能夠集成上下文信息來(lái)執行脫機解碼,他們希望這將進(jìn)一步減少DER。研究人員還希望能夠直接對聲學(xué)特征進(jìn)行建模,這樣整個(gè)Speakerdiarization系統就可以進(jìn)行端到端訓練。
評論