元宇宙建設添利器 Meta強推視覺(jué)大模型 多模態(tài)AI有望加速發(fā)展
在A(yíng)I大模型競賽中,Meta選擇重押視覺(jué)模型,繼推出零樣本分割一切的SAM后,扎克伯格親自官宣了重量級開(kāi)源項目DINOv2。
據介紹,DINOv2是計算機視覺(jué)領(lǐng)域的預訓練大模型,模型參數量是10億級,采用Transformer架構,能在語(yǔ)義分割、圖像檢索和深度估計等方面實(shí)現自監督訓練,不需微調即可用于多種下游任務(wù),可以被用于改善醫學(xué)成像、糧食作物生長(cháng)、地圖繪制等。
DINOv2有何亮點(diǎn)?
主要體現在兩方面——DINOv2可以為大語(yǔ)言模型提供豐富的圖像特征,有助于完善多模態(tài)GPT應用;其蒸餾成小模型后效果依然優(yōu)秀,便于在各種邊緣場(chǎng)景及本地化落地。
對于前者,Meta已表示計劃將DINOv2集成到更大、更復雜的AI系統中,作為視覺(jué)主干提供豐富的圖像特征與大型語(yǔ)言模型進(jìn)行交互。
國盛證券分析師劉高暢表示,DINOv2能比用圖像文本對做訓練的模型得到更豐富的圖像特征,這將讓整個(gè)系統能更好地理解圖像,對多模態(tài)AI的發(fā)展起到加速作用。
值得注意的是,多模態(tài)技術(shù)還能助力游戲內容與元宇宙構造,隨著(zhù)AR/VR技術(shù)的發(fā)展,未來(lái)將能構建逼真的虛擬現實(shí)。扎克伯格就強調,DINOv2可以極大地加持元宇宙的建設,讓用戶(hù)在元宇宙中的沉浸體驗更出色。
上述分析師大膽預測,1-5年內,隨著(zhù)多模態(tài)的發(fā)展帶來(lái)AI泛化能力提升,通用視覺(jué)、通用機械臂、通用物流搬運機器人、行業(yè)服務(wù)機器人、真正的智能家居會(huì )進(jìn)入生活。未來(lái)5-10年內,結合復雜多模態(tài)方案的大模型有望具備完備的與世界交互的能力,在通用機器人、虛擬現實(shí)等領(lǐng)域得到應用。
對于邊緣場(chǎng)景落地,簡(jiǎn)單來(lái)說(shuō)是指將大模型移植到移動(dòng)端或是算力有限的場(chǎng)景。
運行大型的模型需要強大的硬件,這可能會(huì )限制模型在C端場(chǎng)景的應用,為大模型“瘦身”成了手機等移動(dòng)終端運行大模型的前提,其技術(shù)路徑多樣,包括通過(guò)剪枝讓模型稀疏化、知識蒸餾對模型進(jìn)行壓縮、通過(guò)權重共享來(lái)減少參數量等。
DINOv2即采用模型蒸餾的方式,將大型模型的知識壓縮為較小的模型,從而降低推理時(shí)的硬件要求。據官方介紹,Meta開(kāi)源了多個(gè)不同參數規模的預訓練模型,在相同的規模下比較,DINOv2在多種測試基準的得分都能優(yōu)于目前開(kāi)源視覺(jué)模型中表現最好的OpenCLIP。
Meta之外,高通、華為等科技巨頭也在致力于實(shí)現AI大模型在終端的輕量化部署,谷歌、騰訊、百度等已將模型壓縮技術(shù)緊密結合移動(dòng)端模型部署框架/工具。
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。