<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 新品快遞 > 英特爾研究院發(fā)布360度全景圖生成模型LDM3D

英特爾研究院發(fā)布360度全景圖生成模型LDM3D

—— 有望革新內容創(chuàng )作、元宇宙和數字體驗
作者: 時(shí)間:2023-06-25 來(lái)源: 收藏

英特爾研究院宣布與Blockade Labs合作發(fā)布(Latent Diffusion Model for 3D)模型,這一全新的擴散模型使用生成式AI創(chuàng )建3D視覺(jué)內容。是業(yè)界領(lǐng)先的利用擴散過(guò)程(diffusion process)生成深度圖(depth map)的模型,進(jìn)而生成逼真的、沉浸式的360度全景圖。有望革新內容創(chuàng )作、元宇宙應用和數字體驗,改變包括娛樂(lè )、游戲、建筑和設計在內的許多行業(yè)。

本文引用地址:http://dyxdggzs.com/article/202306/447911.htm

英特爾研究院人工智能和機器學(xué)習研究專(zhuān)家Vasudev Lal表示:“生成式AI技術(shù)旨在提高和增強人類(lèi)創(chuàng )造力,并節省時(shí)間。然而,目前的大部分生成式AI模型僅限于生成2D圖像,僅有少數幾種可根據文本提示生成3D圖像。在使用幾乎相同數量參數的情況下,不同于現存的潛在擴散模型,LDM3D可以根據用戶(hù)給定的文本提示同時(shí)生成圖像和深度圖。與深度估計中的標準后處理方法相比,LDM3D能夠為圖像中的每個(gè)像素提供更精準的相對深度,并為開(kāi)發(fā)者省去了大量用于場(chǎng)景開(kāi)發(fā)的時(shí)間?!?/p>

image.png

封閉的生態(tài)系統限制了規模。英特爾致力于推動(dòng)AI的真正普及,通過(guò)開(kāi)放的生態(tài)系統讓更多人從這項技術(shù)中受益。計算機視覺(jué)領(lǐng)域近年來(lái)取得了重大進(jìn)展,特別是在生成式AI方面。然而,當今許多先進(jìn)的生成式AI模型只能生成2D圖像。與通常只能根據文本提示生成2D RGB圖像的現有擴散模型不同,LDM3D可以根據用戶(hù)給定的文本提示同時(shí)生成圖像和深度圖。與深度估計(depth estimation)中的標準后處理(post-processing)方法相比,LDM3D在使用與潛在擴散模型Stable Diffusion幾乎相同數量參數的情況下,能夠為圖像中的每個(gè)像素提供更精準的相對深度(relative depth)。

這項研究有望改變我們與數字內容的互動(dòng)方式,基于文本提示為用戶(hù)提供全新的體驗。LDM3D生成的圖像和深度圖能夠將諸如寧靜的熱帶海灘、摩天大樓、科幻宇宙等文本描述轉化為細致的360度全景圖。LDM3D捕捉深度信息的能力,可以即時(shí)增強整體真實(shí)感和沉浸感,使各行各業(yè)的創(chuàng )新應用成為可能,包括娛樂(lè )、游戲、室內設計、房產(chǎn)銷(xiāo)售 ,以及虛擬博物館與沉浸式VR體驗等。

6月20日,在IEEE/CVF計算機視覺(jué)和模式識別會(huì )議(CVPR)的3DMV工作坊上,LDM3D模型獲得了“Best Poster Award”

LDM3D是在LAION-400M數據集包含一萬(wàn)個(gè)樣本的子集上訓練而成的。LAION-400M是一個(gè)大型圖文數據集,包含超過(guò)4億個(gè)圖文對。對訓練語(yǔ)料庫進(jìn)行標注時(shí),研究團隊使用了之前由英特爾研究院開(kāi)發(fā)的稠密深度估計模型DPT-Large,為圖像中的每個(gè)像素提供了高度準確的相對深度。LAION-400M數據集是基于研究用途創(chuàng )建而成的,以便廣大研究人員和其它興趣社群能在更大規模上測試模型訓練。

LDM3D模型在一臺英特爾AI超級計算機上完成了訓練,該超級計算機由英特爾?至強?處理器和英特爾?Habana Gaudi? AI加速器驅動(dòng)。最終的模型和流程整合了RGB圖像和深度圖,生成360度全景圖,實(shí)現了沉浸式體驗。

為了展示LDM3D的潛力,英特爾和Blockade的研究人員開(kāi)發(fā)了應用程序DepthFusion,通過(guò)標準的2D RGB圖像和深度圖創(chuàng )建沉浸式、交互式的360度全景體驗。DepthFusion利用了TouchDesigner,一種基于節點(diǎn)的可視化編程語(yǔ)言,用于實(shí)時(shí)互動(dòng)多媒體內容,可將文本提示轉化為交互式和沉浸式數字體驗。LDM3D是能生成RGB圖像及其深度圖的單一模型,因此能夠節省內存占用和降低延遲。

LDM3D和DepthFusion的發(fā)布,為多視角生成式AI和計算機視覺(jué)的進(jìn)一步發(fā)展鋪平了道路。英特爾將繼續探索如何使用生成式AI增強人類(lèi)能力,并致力于打造一個(gè)強大的開(kāi)源AI研發(fā)生態(tài)系統,讓更多人能夠使用AI技術(shù)。延續英特爾對開(kāi)放AI生態(tài)系統的大力支持,LDM3D正在通過(guò)HuggingFace進(jìn)行開(kāi)源,讓AI研究人員和從業(yè)者能對這一系統作出進(jìn)一步改進(jìn),并針對特定應用進(jìn)行微調。

在2023年6月18日至22日舉行的IEEE/CVF計算機視覺(jué)和模式識別會(huì )議上,英特爾將發(fā)表這項研究成果。欲了解更多信息,請參考論文《LDM3D: Latent Diffusion Model for 3D》。



評論


技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>