<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 英特爾、Habana Labs與Hugging Face推動(dòng)Transformer業(yè)務(wù)在訓練和推理優(yōu)化及擴展取得關(guān)鍵進(jìn)展

英特爾、Habana Labs與Hugging Face推動(dòng)Transformer業(yè)務(wù)在訓練和推理優(yōu)化及擴展取得關(guān)鍵進(jìn)展

作者: 時(shí)間:2022-12-12 來(lái)源:電子產(chǎn)品世界 收藏

在過(guò)去的一年中,、基于開(kāi)源項目、集成開(kāi)發(fā)者體驗與科學(xué)研究,不斷提升人工智能應用的效率并降低使用門(mén)檻,在創(chuàng )建和訓練高質(zhì)量Transformer模型上取得了重大進(jìn)展。

本文引用地址:http://dyxdggzs.com/article/202212/441547.htm

Transformer模型為包括自然語(yǔ)言處理(NLP)、計算機視覺(jué)(CV)、語(yǔ)音等在內廣泛的機器學(xué)習和深度學(xué)習任務(wù)提供先進(jìn)的性能。大規模訓練這些深度學(xué)習模型需要龐大的算力,這個(gè)過(guò)程非常復雜,不僅需要大量時(shí)間,而且成本高昂。

通過(guò)顛覆者計劃(Intel Disruptor Program)與密切合作,能夠幫助用戶(hù)更廣泛地采用基于最新?至強?可擴展處理器、Habana Gaudi?以及Gaudi?2處理器優(yōu)化的解決方案。此次合作將英特爾AI工具包中先進(jìn)的深度學(xué)習創(chuàng )新技術(shù)引入的開(kāi)源生態(tài)系統中,并以此推動(dòng)未來(lái)英特爾?架構的創(chuàng )新發(fā)展,在英特爾至強平臺上的分布式調優(yōu)、內置優(yōu)化、配合Habana Gaudi加速訓練,以及小樣本學(xué)習方面均取得了重大進(jìn)展。

當使用單節點(diǎn)CPU進(jìn)行訓練速度不佳時(shí),數據科學(xué)家們就需要分布式訓練。在分布式訓練中,集群中的每臺服務(wù)器都保留一個(gè)模型副本,利用訓練數據集的一部分進(jìn)行訓練,并通過(guò)英特爾?oneAPI集體通信庫(Collective Communications Library)在各節點(diǎn)之間交換結果,從而更快地收斂到最終模型。目前,Transformer可原生支持該功能,并使數據科學(xué)家們更容易地進(jìn)行分布式調優(yōu)。

例如,在英特爾至強可擴展處理器的分布式集群上加速Transformer模型的PyTorch訓練時(shí),為在PyTorch中能夠有效利用英特爾?高級矩陣擴展(英特爾?AMX)、AVX-512以及英特爾矢量神經(jīng)網(wǎng)絡(luò )指令(VNNI)等最新英特爾至強可擴展處理器所支持的硬件性能,英特爾為PyTorch設計了英特爾擴展,該軟件庫可為提供開(kāi)箱即用的加速功能。

此外,Hugging Face Transformer提供Trainer API,使用戶(hù)可以無(wú)需手動(dòng)編寫(xiě)訓練循環(huán),更輕松地開(kāi)始訓練。該Trainer為超參數搜索提供API,目前可支持多個(gè)搜索后端,其中包括可托管的超參數優(yōu)化服務(wù)英特爾SigOpt。得益于此,數據科學(xué)家們可以更有效地訓練并獲取最佳模型。

非凡的開(kāi)發(fā)者體驗

OptimumHugging Face創(chuàng )建的一個(gè)開(kāi)源庫,用于在日益增長(cháng)的訓練及推理設備中簡(jiǎn)化Transformer的加速。通過(guò)其內置的優(yōu)化技術(shù)和現成的腳本,初學(xué)者可以輕松地上手使用Optimum,而專(zhuān)家則可以通過(guò)不斷調整以獲得最佳性能。

“Optimum Intel”Transformer庫與英特爾所提供的不同工具和庫之間的接口,用于加速英特爾架構上的端到端管線(xiàn)。該接口基于英特爾?神經(jīng)壓縮器所開(kāi)發(fā),為包括量化、剪枝、知識提取等多項網(wǎng)絡(luò )壓縮技術(shù)提供跨多個(gè)深度學(xué)習框架的統一體驗。此外,開(kāi)發(fā)人員亦可使用Optimum Intel來(lái)進(jìn)行針對評估數據集的模型指標對比,從而更加輕松地在Transformer模型上運行訓練后量化(PTQ)。

與此同時(shí),Optimum Intel還提供了一個(gè)簡(jiǎn)單的接口來(lái)優(yōu)化Transformer模型,并將模型轉換為OpenVINO的中間層表示(IR),從而使用OpenVINO進(jìn)行推理。

利用Habana Gaudi加速訓練

現階段,正攜手Hugging Face更簡(jiǎn)易、快速地訓練大規模、高質(zhì)量的Transformer模型。得益于HabanaSynapseAI? 軟件套件與Hugging Face Optimum-Habana開(kāi)源庫,數據科學(xué)家和機器學(xué)習工程師能夠通過(guò)在Habana GaudiHabana Gaudi2處理器上運行幾行代碼,加速Transformer深度學(xué)習的訓練。

Optimum-Habana庫支持各種計算機視覺(jué)、自然語(yǔ)言和多模態(tài)模型。其支持且經(jīng)過(guò)測試的模型架構包括BERT、AlBERT、DistilBERT、RoBERTa、Vision Transformer、swin、T5、GPT2、wav2vec2Stable Diffusion。Hugging Facehub上目前已有4萬(wàn)多個(gè)基于這些架構的模型,而開(kāi)發(fā)人員可以使用Optimum-HabanaGaudiGaudi2上輕松地使用這些模型1。

Habana Gaudi解決方案已經(jīng)用于亞馬遜EC2 DL1實(shí)例,采用該解決方案進(jìn)行訓練的一個(gè)主要優(yōu)勢是性?xún)r(jià)比。Habana Gaudi的性?xún)r(jià)比與同類(lèi)訓練解決方案相比高40%,使客戶(hù)能用更少的成本進(jìn)行更多訓練2,Gaudi2采用與第一代Gaudi相同的高效架構,同樣提供了卓越的性?xún)r(jià)比。

Habana DeepSpeed也集成在Optimum-Habana庫中,讓人們在使用DeepSpeed優(yōu)化的Gaudi設備時(shí),能更易于大規模部署和訓練大型語(yǔ)言模型。您可以通過(guò)Optimum Habana DeepSpeed使用指南了解更多信息。

最新版的Optimum-HabanaHugging Facediffusers庫中內置支持Stable Diffusion,使Hugging Face開(kāi)發(fā)者能夠在Habana Gaudi上進(jìn)行極具性?xún)r(jià)比的圖像生成測試。

生產(chǎn)中的小樣本學(xué)習

英特爾研究院、Hugging FaceUKP Lab最近推出了SetFit,這是一種用于對Sentence Transformer進(jìn)行小樣本調優(yōu)的有效框架。使用預先訓練的語(yǔ)言模型進(jìn)行小樣本學(xué)習,將有望解決數據科學(xué)家在現實(shí)中面臨的一大挑戰:處理那些幾乎沒(méi)有標簽的數據。

當前的小樣本調優(yōu)需要手工提示或描述器,將示例轉換為適合底層語(yǔ)言模型的格式。通過(guò)直接從少量有標簽的文本示例中直接生成豐富的嵌入,SetFit可省去提示。

研究人員設計了SetFit,可用于Hugging Face Hub上的任何Sentence Transformer,即通過(guò)調優(yōu)多語(yǔ)言檢查點(diǎn),可以將文本分類(lèi)為多種語(yǔ)言。

SetFit不需要像T5GPT-3這樣的大模型來(lái)實(shí)現高精度。與標準調優(yōu)相比,它顯著(zhù)提高了采樣效率并能夠更好地耐受噪聲。例如,對于在一個(gè)示例情感數據集上每類(lèi)只有八個(gè)有標簽的例子,SetFit可以與在包含3000個(gè)例子的完整訓練集上的RoBERTa Large調優(yōu)相媲美。Hugging Face發(fā)現,在零提示且體積縮小27倍的情況下,SetFit也取得了與T-Few 3B相當的效果,從而實(shí)現了兼具低成本和高效的訓練3。

一直以來(lái),英特爾致力于積極構建生態(tài)系統并助力降低AI成本,包括開(kāi)源項目、集成的開(kāi)發(fā)者體驗和科學(xué)研究等舉措。而工具和軟件恰恰能夠讓開(kāi)發(fā)人員加快構建應用程序,并釋放處理器性能。英特爾旨在讓人們能夠更輕松地在任何地方構建和部署AI,使數據科學(xué)家和機器學(xué)習從業(yè)者能夠采用最新的優(yōu)化技術(shù)。

 

注釋?zhuān)?/span>

1 基于Hugging Face搜索查詢(xún):https://huggingface.co/models?other=or:bert,stable-diffusion-diffusers,albert,wav2vec2,vit,swin,t5,distilbert,roberta,gpt2。這個(gè)查詢(xún)會(huì )過(guò)濾所有已經(jīng)測試、驗證并在Optimum-Habana中得到支持的Hugging Face模型。
2 
基于AWS計算的價(jià)格和性能,對比了基于GPU的類(lèi)似AWS實(shí)例。更多信息參見(jiàn)亞馬遜相關(guān)新聞稿:https://press.aboutamazon.com/2021/10/aws-announces-general-availability-of-amazon-ec2-dl1-instances 
3
有關(guān)性能的詳情參見(jiàn)完整論文:https://arxiv.org/abs/2209.11055 和博客文章:https://huggingface.co/blog/set



評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>