<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 谷歌開(kāi)源AI能區分聲音 準確率達92%

谷歌開(kāi)源AI能區分聲音 準確率達92%

作者: 時(shí)間:2018-11-29 來(lái)源:網(wǎng)易智能 收藏

  據VentureBeat報道,在語(yǔ)音嘈雜的環(huán)境中,要想分辨出有幾個(gè)人講話(huà)、在什么時(shí)間講話(huà),對于機器來(lái)說(shuō)非常困難。但人工智能()研究部門(mén)在語(yǔ)音識別方面取得了新進(jìn)展,能以92%的準確率識別出每個(gè)人聲音的專(zhuān)屬模式。

本文引用地址:http://dyxdggzs.com/article/201811/395014.htm

  研究部門(mén)在最新名為《FullySupervisedSpeakerDiarization》的論文和相關(guān)博客文章中,研究人員描述了一種新的系統,它“能以一種更有效的方式識別聲音”。

  這套系統涉及到Speakerdiarization任務(wù),即需要標注出“誰(shuí)”從“什么時(shí)候”到“什么時(shí)候”在說(shuō)話(huà),將語(yǔ)音樣本分割成獨特的、同構片段的過(guò)程。強大的AI系統必須能夠將新的演講者發(fā)音與它以前從未遇到過(guò)的語(yǔ)音片段關(guān)聯(lián)起來(lái)。

  這篇論文的作者聲稱(chēng),核心算法已經(jīng)可在Github上的開(kāi)源軟件中可用,它實(shí)現了一個(gè)在線(xiàn)二值化錯誤率(DER),在NISTSRE2000CALLHOME基準上是7.6%,這對于實(shí)時(shí)應用來(lái)說(shuō)已經(jīng)足夠低了,而之前使用的方法DER為8.8%。

  谷歌研究人員的新方法是通過(guò)遞歸神經(jīng)網(wǎng)絡(luò )(RNN)模擬演講者的嵌入(如詞匯和短語(yǔ)的數學(xué)表示),遞歸神經(jīng)網(wǎng)絡(luò )是一種機器學(xué)習模型,它可以利用內部狀態(tài)來(lái)處理輸入序列。每個(gè)演講者都從自己的RNN實(shí)例開(kāi)始,該實(shí)例不斷更新給定新嵌入的RNN狀態(tài),使系統能夠學(xué)習發(fā)言者共享的高級知識。

  研究人員在論文中寫(xiě)道:“由于該系統的所有組件都可以在監督環(huán)境下學(xué)習,所以在有高質(zhì)量時(shí)間標記演講者標簽訓練數據的情況下,它比無(wú)監督系統更受青睞。我們的系統受到全面監督,能夠從帶有時(shí)間戳的演講者標簽例子中學(xué)習?!?/p>

  在未來(lái)的工作中,研究團隊計劃改進(jìn)模型,使其能夠集成上下文信息來(lái)執行脫機解碼,他們希望這將進(jìn)一步減少DER。研究人員還希望能夠直接對聲學(xué)特征進(jìn)行建模,這樣整個(gè)Speakerdiarization系統就可以進(jìn)行端到端訓練。



關(guān)鍵詞: 谷歌 AI

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>