谷歌搞出個(gè)機器學(xué)習多面手:能處理聲音圖像多種任務(wù)
北京時(shí)間6月20日早間消息,谷歌近期發(fā)表的一篇學(xué)術(shù)論文或許為機器學(xué)習未來(lái)的發(fā)展制定了藍圖。這篇論文題為“一種可以進(jìn)行各種學(xué)習的模型”,為可處理多任務(wù)的單一機器學(xué)習模型提供了模板。
本文引用地址:http://dyxdggzs.com/article/201706/360726.htm谷歌研究員將其稱(chēng)作“MultiModel”(多任務(wù)模型),并訓練該模型完成一系列任務(wù),包括翻譯、語(yǔ)言分析、語(yǔ)音識別、圖像識別和對象探測等。盡管結果相對于當前方法并沒(méi)有質(zhì)的飛躍,但這表明,用多種任務(wù)去訓練機器學(xué)習系統將提升其整體性能。
例如,如果用可以勝任的所有任務(wù)來(lái)進(jìn)行訓練,那么相對于用單一任務(wù)進(jìn)行訓練,MultiModel在機器翻譯、語(yǔ)音和分析任務(wù)方面的準確性會(huì )更高。
谷歌的論文為未來(lái)機器學(xué)習系統的開(kāi)發(fā)提供了模板。這種系統可以得到更廣泛的應用,或許也會(huì )更準確。這將與當前的狹義解決方案不同。更重要的是,這些技術(shù)(及其衍生技術(shù))有助于減少機器學(xué)習算法所需的訓練數據量。
該團隊的研究結果表明,在用可以勝任的所有任務(wù)來(lái)進(jìn)行訓練時(shí),準確性會(huì )隨著(zhù)訓練數據的減少而提高。這點(diǎn)很重要,因為某些領(lǐng)域很難積累起足夠多的訓練數據。
然而,谷歌并沒(méi)有宣稱(chēng)已找到一種可以學(xué)會(huì )所有任務(wù)的“主算法”。正如名稱(chēng)所暗示的,MultiModel網(wǎng)絡(luò )包含為解決不同挑戰而訂制的系統,以及協(xié)助直接向這些專(zhuān)家算法提供輸入的系統。谷歌采取的方法將有助于未來(lái)開(kāi)發(fā)類(lèi)似的系統,以解決不同領(lǐng)域的問(wèn)題。
需要指出,這方面仍有許多測試需要去做。谷歌的研究結果尚未得到證實(shí),目前也很難弄清,這項研究能否拓展至其他領(lǐng)域。作為T(mén)ensorFlow開(kāi)源項目的一部分,谷歌大腦團隊已經(jīng)發(fā)布了MultiModel的代碼,而其他人可以嘗試這個(gè)模型。
評論