<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > 微信自研NLP大規模語(yǔ)言模型WeLM:零/少樣本即可完成多種NLP任務(wù)

微信自研NLP大規模語(yǔ)言模型WeLM:零/少樣本即可完成多種NLP任務(wù)

發(fā)布人:AI科技大本營(yíng) 時(shí)間:2022-10-19 來(lái)源:工程師 發(fā)布文章

近日,微信AI推出自研NLP大規模語(yǔ)言模型WeLM ,該模型是一個(gè)尺寸合理的中文模型,能夠在零樣本以及少樣本的情境下完成包多語(yǔ)言任務(wù)在內的多種NLP任務(wù)。

同時(shí),微信AI團隊也提供了WeLM的體驗網(wǎng)頁(yè)和API接口,感興趣的用戶(hù)可前往https://welm.weixin.qq.com/docs/體驗和申請API接口,相關(guān)技術(shù)論文《WeLM: A Well-Read Pre-trained Language Model for Chinese》也已經(jīng)發(fā)布于論文預印本網(wǎng)站arXiv。


圖片

NLP大模型迎新選手,WeLM提供交互式網(wǎng)頁(yè)PlayGround和API接口

在近幾年自然語(yǔ)言處理(NLP)領(lǐng)域的發(fā)展浪潮中,OpenAI開(kāi)發(fā)的自然語(yǔ)言處理模型GPT-3無(wú)疑風(fēng)頭無(wú)兩,發(fā)布之初便以1750億參數規模的預訓練模型所表現出來(lái)的零樣本與小樣本學(xué)習能力刷新了人們的認知,也引爆了AI大模型研究的熱潮。

對業(yè)界來(lái)說(shuō),預訓練大模型降低了AI應用的門(mén)檻,距離“AI把人類(lèi)從重復性勞動(dòng)中解放出來(lái)”的宏偉目標越來(lái)越近,目前,基于GPT-3,全球開(kāi)發(fā)者已經(jīng)探索出包括編程、回復郵件、UI設計、回答數學(xué)問(wèn)題、法律語(yǔ)言轉化、總結中心思想、推理、文本處理等廣泛應用場(chǎng)景,并且,各國研究者在多語(yǔ)言/多任務(wù)等角度的探索也正在譜寫(xiě)大模型百家爭鳴的新篇章。

而在國內以中文為核心的大規模語(yǔ)言模型領(lǐng)域,微信AI推出的百億級別大規模語(yǔ)言模型WeLM,便是大模型百家爭鳴中的新選手。

據介紹,WeLM是一個(gè)百億級別的中文模型,能夠在零樣本以及少樣本的情境下完成包括對話(huà)-采訪(fǎng)、閱讀理解、翻譯、改寫(xiě)、續寫(xiě)、多語(yǔ)言閱讀理解在內的多種NLP任務(wù),并具備記憶能力、自我糾正和檢查能力。并且,WeLM具有尺寸合理的優(yōu)勢,在14項中文NLP任務(wù)上,WeLM的整體表現超出了所有同大小的模型,甚至能夠匹配比它大25倍的模型。

以被普遍認為是更困難的NLP任務(wù)的文本風(fēng)格轉換(改寫(xiě))為例,盡管用戶(hù)給出的5個(gè)例子和最后需要生成的例子并沒(méi)有重合的風(fēng)格轉換類(lèi)型,但WeLM擁有出色的舉一反三能力,通過(guò)學(xué)習少量的文本轉換例子即可達到對任意類(lèi)型的文本轉換。并且,WeLM在對話(huà)-采訪(fǎng)、閱讀理解、翻譯、續寫(xiě)等多個(gè)中文文本生成任務(wù)中有著(zhù)同樣優(yōu)異的表現。

圖片

除了具備強大的中文理解和生成能力,WeLM還擁有處理跨多語(yǔ)言(中英日)任務(wù)的能力。以“微信 AI 推出の WeLM 是一個(gè) language model that いろいろなtaskをperformができる”這句混合中日英三國語(yǔ)言的文本為例,WeLM的翻譯相較Google翻譯更為精準。

圖片

而且,在進(jìn)一步微調后,WeLM可以擁有更好的零樣本學(xué)習能力,可以根據場(chǎng)景擁有更好的表現。目前,WeLM已經(jīng)部署應用于微信視頻號的部分場(chǎng)景中,未來(lái)在進(jìn)一步優(yōu)化后還將應用于更多微信應用場(chǎng)景。

同時(shí),為進(jìn)一步推動(dòng)WeLM成為真正能落地且實(shí)用的工具,微信AI團隊還發(fā)布了一個(gè)供用戶(hù)體驗的交互式網(wǎng)頁(yè)PlayGround,并開(kāi)放了用于訪(fǎng)問(wèn)WeLM的API接口。

圖片

目前,用戶(hù)可通過(guò)https://welm.weixin.qq.com/docs/體驗WeLM的相關(guān)能力,并通過(guò)調整配置以實(shí)現更貼近的文本生成效果。對于想接入WeLM的開(kāi)發(fā)者,也可通過(guò)https://welm.weixin.qq.com/docs/api/填寫(xiě)問(wèn)卷后獲得WeLM的API Token并調用相應接口,將WeLM部署在自己的應用上。


圖片

具有極強知識儲備,WeLM在14項中文NLP任務(wù)中表現亮眼

據介紹,在純Encoder(Bert)、純Decoder(GPT) 以及Encoder-Decode(T5) 結構等主流NLP模型路徑的選擇上,WeLM和GPT3、Google PaLM一樣,選擇了自回歸模型的路線(xiàn)。同時(shí),考慮到不同的用戶(hù)對于模型效果和推理延遲會(huì )有考量或者取舍(trade-off),微信AI的WeLM訓練了1.3B、2.7B以及10B三個(gè)版本的模型,滿(mǎn)足不同用戶(hù)的調用需求。

同時(shí),在訓練數據上,微信AI團隊希望構建一個(gè)足夠豐富、足夠干凈、足夠公平的數據集,為此研究團隊從Common Crawl下載了近兩年的中文網(wǎng)頁(yè)數據,和大量的書(shū)籍、新聞。為了增強專(zhuān)業(yè)能力,微信AI團隊還在數據集補充了知識密集的論壇數據和一些學(xué)術(shù)論文,搜集完成后的全量數據10TB,其中包含了750G的英文數據,并保留了部分日韓文。

隨后,通過(guò)規則過(guò)濾和額外訓練的二分類(lèi)fasttext模型,以及對測評相關(guān)數據的去除,數據集最終處理完的數據量為262B tokens。為了更好的平衡各個(gè)數據源的比重,微信AI團隊也對數據進(jìn)行不同比重的采樣,最終,整體數據集的Topic分布相比 Common Crawl更加平滑。

圖片

在與業(yè)界同級別的CPM、華為Pangu和百度Ernie3.0的對比測試中,WeLM表現出極強的知識儲備,在14項中文NLP任務(wù)上,WeLM 的整體表現超出了所有同大小的模型,甚至能夠匹配比它大25倍的模型。同時(shí),在強大的中文理解和生成能力外,WeLM還有出色的多語(yǔ)言理解能力,用戶(hù)的輸入可以在中日英上絲滑切換。

圖片

目前,WeLM的相關(guān)技術(shù)論文《WeLM: A Well-Read Pre-trained Language Model for Chinese》已經(jīng)發(fā)布于論文預印本網(wǎng)站arXiv,感興趣的用戶(hù)可前往https://arxiv.org/abs/2209.10372查看更多技術(shù)細節。

在NLP領(lǐng)域,讓大模型成為真正能落地且實(shí)用的工具,是每一位NLP領(lǐng)域的研究者矢志不渝的方向。未來(lái),微信AI也將針對WeLM進(jìn)行進(jìn)一步的微調優(yōu)化,進(jìn)一步提升其在新任務(wù)上的泛化效果,也歡迎更多開(kāi)發(fā)者、用戶(hù)前來(lái)體驗WeLM并提出寶貴意見(jiàn)和建議,幫助該模型早日成為真正能落地且實(shí)用的工具,共同探索人工智能的發(fā)展之路。


*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>