<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > 元宇宙建設添利器 Meta強推視覺(jué)大模型 多模態(tài)AI有望加速發(fā)展

元宇宙建設添利器 Meta強推視覺(jué)大模型 多模態(tài)AI有望加速發(fā)展

發(fā)布人:科創(chuàng )板日報 時(shí)間:2023-04-24 來(lái)源:工程師 發(fā)布文章

在A(yíng)I大模型競賽中,Meta選擇重押視覺(jué)模型,繼推出零樣本分割一切的SAM后,扎克伯格親自官宣了重量級開(kāi)源項目DINOv2。

據介紹,DINOv2是計算機視覺(jué)領(lǐng)域的預訓練大模型,模型參數量是10億級,采用Transformer架構,能在語(yǔ)義分割、圖像檢索和深度估計等方面實(shí)現自監督訓練,不需微調即可用于多種下游任務(wù),可以被用于改善醫學(xué)成像、糧食作物生長(cháng)、地圖繪制等。

圖片

DINOv2 用于語(yǔ)義分割,將圖中每個(gè)像素劃分類(lèi)別

圖片

DINOv2 用于圖像檢索,查找與給定圖像相關(guān)的圖

圖片

DINOv2用于深度估計,給出圖中物體到鏡頭的距離信息

DINOv2有何亮點(diǎn)?

主要體現在兩方面——DINOv2可以為大語(yǔ)言模型提供豐富的圖像特征,有助于完善多模態(tài)GPT應用;其蒸餾成小模型后效果依然優(yōu)秀,便于在各種邊緣場(chǎng)景及本地化落地。

對于前者,Meta已表示計劃將DINOv2集成到更大、更復雜的AI系統中,作為視覺(jué)主干提供豐富的圖像特征與大型語(yǔ)言模型進(jìn)行交互。

國盛證券分析師劉高暢表示,DINOv2能比用圖像文本對做訓練的模型得到更豐富的圖像特征,這將讓整個(gè)系統能更好地理解圖像,對多模態(tài)AI的發(fā)展起到加速作用。

值得注意的是,多模態(tài)技術(shù)還能助力游戲內容與元宇宙構造,隨著(zhù)AR/VR技術(shù)的發(fā)展,未來(lái)將能構建逼真的虛擬現實(shí)。扎克伯格就強調,DINOv2可以極大地加持元宇宙的建設,讓用戶(hù)在元宇宙中的沉浸體驗更出色。

上述分析師大膽預測,1-5年內,隨著(zhù)多模態(tài)的發(fā)展帶來(lái)AI泛化能力提升,通用視覺(jué)、通用機械臂、通用物流搬運機器人、行業(yè)服務(wù)機器人、真正的智能家居會(huì )進(jìn)入生活。未來(lái)5-10年內,結合復雜多模態(tài)方案的大模型有望具備完備的與世界交互的能力,在通用機器人、虛擬現實(shí)等領(lǐng)域得到應用。

對于邊緣場(chǎng)景落地,簡(jiǎn)單來(lái)說(shuō)是指將大模型移植到移動(dòng)端或是算力有限的場(chǎng)景。

運行大型的模型需要強大的硬件,這可能會(huì )限制模型在C端場(chǎng)景的應用,為大模型“瘦身”成了手機等移動(dòng)終端運行大模型的前提,其技術(shù)路徑多樣,包括通過(guò)剪枝讓模型稀疏化、知識蒸餾對模型進(jìn)行壓縮、通過(guò)權重共享來(lái)減少參數量等。

DINOv2即采用模型蒸餾的方式,將大型模型的知識壓縮為較小的模型,從而降低推理時(shí)的硬件要求。據官方介紹,Meta開(kāi)源了多個(gè)不同參數規模的預訓練模型,在相同的規模下比較,DINOv2在多種測試基準的得分都能優(yōu)于目前開(kāi)源視覺(jué)模型中表現最好的OpenCLIP。

Meta之外,高通、華為等科技巨頭也在致力于實(shí)現AI大模型在終端的輕量化部署,谷歌、騰訊、百度等已將模型壓縮技術(shù)緊密結合移動(dòng)端模型部署框架/工具。


*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>