<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 醫療電子 > 設計應用 > 基于Kinect人體動(dòng)態(tài)三維重建

基于Kinect人體動(dòng)態(tài)三維重建

作者:劉雷杰 時(shí)間:2016-08-29 來(lái)源:電子產(chǎn)品世界 收藏
編者按:從圖像中恢復出三維物體表面模型的方法稱(chēng)為3D重構,是計算機圖形學(xué)研究領(lǐng)域中一個(gè)重要的研究方向。準確可靠的三維動(dòng)態(tài)幾何重建在影視制作和游戲開(kāi)發(fā)中具有重要作用。不同于靜態(tài)物體表面三維重建,動(dòng)態(tài)幾何三維重建需要研究幀與幀之間準確的對應信息。本文提出的方法基于單個(gè)Kinect硬件系統,利用Kinect重建出人體的靜態(tài)三維模型,結合Kinect識別出的骨架進(jìn)行人物的動(dòng)態(tài)三維模型重建。

摘要:從圖像中恢復出三維物體表面模型的方法稱(chēng)為3D重構,是計算機圖形學(xué)研究領(lǐng)域中一個(gè)重要的研究方向。準確可靠的三維動(dòng)態(tài)幾何重建在影視制作和游戲開(kāi)發(fā)中具有重要作用。不同于靜態(tài)物體表面三維重建,動(dòng)態(tài)幾何三維重建需要研究幀與幀之間準確的對應信息。本文提出的方法基于單個(gè)硬件系統,利用重建出人體的靜態(tài)三維模型,結合識別出的骨架進(jìn)行人物的動(dòng)態(tài)三維模型重建。

本文引用地址:http://dyxdggzs.com/article/201608/296185.htm

1 內容介紹

  近年來(lái),計算機動(dòng)畫(huà)及計算機視覺(jué)的快速發(fā)展使得運動(dòng)物體的幾何跟蹤變得重要起來(lái)。而現代CG動(dòng)畫(huà)中創(chuàng )建準確可靠的動(dòng)態(tài)幾何三維數字化也是相當重要的一部分。其應用領(lǐng)域非常廣泛,包含機器人學(xué)、生物醫學(xué)、交互游戲式的教育和影視制作等。

  人體三維重建就是指通過(guò)獲取包括RGB-D信息或者輪廓信息等原始數據,然后對這些數據進(jìn)行預處理,如濾波、去噪和增強等,再進(jìn)行針對這些數據的分析,如前景分割和特征提取等,最后通過(guò)重建算法進(jìn)行三維表面的重建。

2 相關(guān)工作

  目前,大多數的研究機構和高校通過(guò)搭建一些由多個(gè)相機組成的相機陣列進(jìn)行360度的人體表面模型重建。大致上可以將其分為四類(lèi):實(shí)時(shí)繪制類(lèi)、基于人體模板類(lèi)、無(wú)人體模板類(lèi)及窄基線(xiàn)類(lèi)等。

  實(shí)時(shí)繪制類(lèi)系統主要是用于實(shí)時(shí)的交互編制的三維場(chǎng)景重建方法,在交互式立體游戲和遠程視頻會(huì )議等方面有較多的應用。它的核心技術(shù)主要是通過(guò)輪廓進(jìn)行形狀的恢復。文獻[1-3]中的系統采用體素離散化的方法進(jìn)行人體三維對象的實(shí)體體素?;谌梭w模板類(lèi)系統是單相機或多相機進(jìn)行非標記的運動(dòng)捕捉方法的主要策略。該方法通過(guò)提取并計算基于骨架信息的模型參數進(jìn)行人體姿態(tài)的恢復,同時(shí)還可以獲得時(shí)間上的運動(dòng)參數描述?;诙嘁晥D的無(wú)模板主要是基于多視圖的無(wú)模板的三維重建方法。這種方法不需要有關(guān)場(chǎng)景對象的先驗知識,通過(guò)多視圖上的立體匹配方法就可以進(jìn)行三維重建。這類(lèi)系統最早的也是最具有代表性的是“Virtualized Reality”項目[4]所搭建的。而窄基線(xiàn)類(lèi)采集系統是對比有限視角范圍內的場(chǎng)景深度信息進(jìn)行恢復,達到虛擬插值的結果。這種系統相鄰相機間距離較小,不能提取完整的三維信息。這種非全景采集方式的多攝像機系統通常是基于深度圖進(jìn)行求解和繪制實(shí)現的。Zitnick 等[5]在微軟研究院搭建了高質(zhì)量場(chǎng)景虛擬視圖繪制系統。

  采用以上的系統進(jìn)行重建的方法可以統一稱(chēng)為被動(dòng)式的方法。而主動(dòng)式的方法比這類(lèi)被動(dòng)式的方法更精準,最常見(jiàn)的主動(dòng)式的方法是通過(guò)激光掃描儀進(jìn)行三維重建。但這種方法對實(shí)驗設備要求高,處理過(guò)程也比較復雜。而基于結構光的方法[6]成本較低,但無(wú)法恢復物體的紋理信息?;陲w行時(shí)間(Time of Flight, ToF)的深度相機[7]是一種可以實(shí)時(shí)獲得場(chǎng)景深度信息的技術(shù),它通過(guò)主動(dòng)地向待測場(chǎng)景發(fā)射被調制的光脈沖,用傳感器接收從物體返回的光,并計算光脈沖的飛行(往返)時(shí)間來(lái)得到場(chǎng)景的深度圖。微軟推出的3D體感器Kinect[8]同時(shí)具有了低成本和多傳感捕捉的優(yōu)點(diǎn),不僅可以采集到精確的深度幾何信息,而且可以輸出場(chǎng)景的紋理信息。所以,本文主要探討通過(guò)使用低廉的Kinect相機對運動(dòng)的人體進(jìn)行三維重建。

3

3.1 系統方法概述

  本文提出的方法主要利用Kinect fusion[9]掃描出來(lái)的演員三維靜態(tài)模型、深度和骨架序列,基于骨架非標記的運動(dòng)捕捉方法獲取新的骨架序列和每個(gè)動(dòng)作的動(dòng)態(tài)三維模型。由于Kinect采集的骨架序列無(wú)法保持拓撲一致性,本章提出一種新的利用多優(yōu)先級反向運動(dòng)學(xué)方法(inverse kinematics method)[10]進(jìn)行處理,來(lái)獲取動(dòng)作參數和拓撲骨架運動(dòng)序列。三維模型上的每個(gè)點(diǎn)對于骨架節點(diǎn)的權重自動(dòng)計算出來(lái),該權重描述了靜態(tài)三維模型與骨架之間的關(guān)系?;谟嬎愠龅臋嘀?,利用雙四元數剝皮(dual quaternions skinning (DQS) method)方法[11]計算出新骨架的三維模型。然后通過(guò)稀疏表示進(jìn)行變形后模型的優(yōu)化,如圖3所示。

3.2 自適應多優(yōu)先級運動(dòng)估計

  基于剛性變形理論[12],進(jìn)行自適應多優(yōu)先級的運動(dòng)估計。對于基于體感相機骨架姿態(tài)的運動(dòng)參數骨架,每個(gè)骨架節點(diǎn)的位置約束不可能同時(shí)滿(mǎn)足,因此為經(jīng)典的矛盾性問(wèn)題。如圖1所示,該問(wèn)題的解決方法一般有兩類(lèi):一是加權方法,二是優(yōu)先級方法。加權方法是最常用、最簡(jiǎn)單的方法,優(yōu)先級方法則便于設計優(yōu)先級引導的運動(dòng)估計方法,使得可以更準確地仲裁各個(gè)矛盾。因此,擬根據體感相機骨架拓撲變化的穩定性,即每個(gè)節點(diǎn)所對應肢節長(cháng)度的變化,設定優(yōu)先級的高低。越穩定的節點(diǎn),優(yōu)先級越高,反之亦然。

  本部分擬設計三重循環(huán)優(yōu)先級算法來(lái)求解經(jīng)典的反向運動(dòng)學(xué)問(wèn)題。從內到外,分別為優(yōu)先級循環(huán)、箝位循環(huán)、收斂循環(huán)。其中,優(yōu)先級循環(huán)按照優(yōu)先級從高到低循環(huán)處理計算,箝位循環(huán)用來(lái)檢查并去除已達極限的節點(diǎn),收斂循環(huán)用來(lái)控制收斂性。如圖2所示,以?xún)蓚€(gè)優(yōu)先級的矛盾性問(wèn)題為例進(jìn)行說(shuō)明。假設一個(gè)兩個(gè)自由度的鏈{θ1,θ1},鏈的末端有個(gè)x方向上的高優(yōu)先級約束Δx1,前臂中段有個(gè)y方向上的低優(yōu)先級約束Δx2。那么,線(xiàn)性化求解方案為:

(1)

  其中,Δθ為n維姿態(tài)變化向量,Δx為m維的約束,J為m×n的雅可比矩陣,N(J)表示J的零空間,PN(J)為n×n的到N(J)空間的投影算子,阻尼最小二乘逆J定義為:

(2)

  其中,r為矩陣J的秩,σi為矩陣J的奇異值,{ui}和{vi}分別是J空間和N(J)的補空間的基向量,λ為阻尼因子。

3.3 保體積真實(shí)感變形

  為了在模型變形中保持體積和局部細節,本方案擬首先將靜態(tài)三維模型根據骨架結構分為若干個(gè)部分,并采用熱擴散的方法計算蒙皮權重。然后,用埃爾米特徑向基函數,即一個(gè)平滑三維標量場(chǎng)fi的0.5等值面,來(lái)近似每個(gè)部分表面,并采用梯度控制的融合方法將各個(gè)部分的fi融合為一個(gè)統一的場(chǎng)函數。保存靜態(tài)模型每個(gè)頂點(diǎn)的場(chǎng)值f0(pi)(包含了幾何細節信息)。每個(gè)標量場(chǎng)fi根據權重和骨架參數通過(guò)對偶四元數方法進(jìn)行變換,并同樣采用梯度控制的融合方法將各個(gè)部分的fi融合為一個(gè)統一的場(chǎng)函數f。為了保持模型的幾何細節,采用牛頓迭代法將每個(gè)頂點(diǎn)pi投影到靜態(tài)姿態(tài)的場(chǎng)值f0(pi)上:

(3)

  其中,λ用來(lái)調節收斂速度和精度。為了避免面片產(chǎn)生較大的失真甚至自相交,采用以下公式迭代計算頂點(diǎn)位置:

(4)

  其中,,qi,j是投影到pi切平面的單環(huán)鄰域點(diǎn),是重心坐標,使得。最后,采用拉普拉斯平滑技術(shù)進(jìn)行平滑:

(5)

  其中,的單環(huán)領(lǐng)域的中心。

3.4 優(yōu)化

  基于稀疏表示的非剛性配準方法(Sparse Non-Rigid Registration)[13]定義通過(guò)DQS變形后的模型Ms上的點(diǎn)為,N是點(diǎn)的個(gè)數。同樣,將深度上的模型面片Mt上的點(diǎn)表示為。然后計算在Kinect深度相機視角下變形后模型的可見(jiàn)點(diǎn),找出最相似與深度面片的點(diǎn)的對應關(guān)系:,其中有關(guān)系為代表點(diǎn)標號的映射關(guān)系?;趯P(guān)系f,即通過(guò)最小化能量方法式,算出模型Ms上每個(gè)點(diǎn)的的變換矩陣Ti:

(6)

  其中,T是一個(gè)4N×3的矩陣,它將Ti作為它的列;qf(i)的卡笛爾坐標系,Ni表示一個(gè)圓形鄰域連接的邊緣。定義一個(gè)不同的矩陣,其中G代表Ms上的邊的數目,L的每一行對應Ms上的一條邊,L的每一列對應Ms上的一個(gè)點(diǎn)。對于第r條邊,它的兩個(gè)頂點(diǎn)分別為pipj,因此,可以得到Lr,i=1和Lr,j=-1。式(6)也可重寫(xiě)成如下形式:

(7)

  其中:

(8)

  其中,I4是4×4的單位矩陣,表示克羅內克積(Kronecker product)。通過(guò)迭代查找最相似對應關(guān)系并通過(guò)交替方向法(alternate direction method)解式(7)直到收斂。我們?yōu)锳DM算法15外和25內迭代。圖3表明了該動(dòng)作優(yōu)化方法的效果。優(yōu)化前的面片和真實(shí)動(dòng)作連續性并不是很強,進(jìn)行算法的優(yōu)化后的結果和真實(shí)動(dòng)作看起來(lái)連續性強,通過(guò)投影可以看出結果的不同。圖3中,(a)優(yōu)化前面片,(b)是優(yōu)化后的面片,優(yōu)化前后的結果多少有些不同;具體比對通過(guò)投影可以看出來(lái):(c)是優(yōu)化前的模型投影到RGB圖上的結果,可以看出來(lái)并不能完全重合,(d)是優(yōu)化后的投影結果,相對于優(yōu)化前,有明顯的改善,與RGB圖更加重合,運動(dòng)捕捉的結果相對于優(yōu)化前精確度上也有了比較明顯的改善。

4 實(shí)驗結果

  為了說(shuō)明實(shí)驗結果,本文通過(guò)驅動(dòng)一個(gè)人物靜態(tài)模型模板進(jìn)行變形得到與實(shí)際動(dòng)作相對應的三維模型。通過(guò)與當時(shí)模型的RGB信息的對比,投影操作,驗證了所重建出的模型的準確性。如圖4所示,圖中給出了通過(guò)一個(gè)靜態(tài)模型生成其它對應動(dòng)作的模型信息,同時(shí)也增加了對應時(shí)刻Kinect所采集RGB信息。

5 結論

  動(dòng)態(tài)運動(dòng)模型的空時(shí)稀疏采樣實(shí)現了魯棒真實(shí)感動(dòng)畫(huà)。給出最優(yōu)的視角、運動(dòng)聯(lián)合采樣數目和密度,利用壓縮感知方法給出視角和運動(dòng)的最佳搭配方案。自適應多優(yōu)先級運動(dòng)估計與保體積真實(shí)感變形實(shí)現精確真實(shí)感動(dòng)畫(huà)。根據骨架拓撲結構變化規律設計自適應的多優(yōu)先級運動(dòng)估計方法,刻畫(huà)了表面的幾何,給出表面和變形體的隱性表達,進(jìn)而實(shí)現高真實(shí)感的實(shí)時(shí)表面變形。

參考文獻:

  [1] Cheung K M, Kanade T, Bouguet J Y, et al. A real time system for robust 3-D voxel reconstruction of human motions. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Hilton Head, SC, USA, 2000. 714–720.

  [2] Grau O, Pullen T, Thomas G. A combined studio production system for 3-D capturing of live action and immersive actor feedback. IEEE Transactions on Circuits and Systems for Video Technology, 2004, 14(3):370–380.

  [3] Hasenfratz J M, Lapierre M, Sillion F. A real-time system for full body interaction with virtual worlds. Proceedings of Eurographics Symposium on Virtual Environments, Grenoble, France, 2004. 147–156.

  [4] Matsuyama T, Wu X, Takai T, et al. Real-time 3-D shape reconstruction, dynamic 3-D mesh deformation and high fidelity visualization for 3-D video. Computer Vision and Image Understanding, 2004, 96(3):393–434.

  [5] Zitnick C, Kang S B, Uyttendaele M, et al. High-quality video view interpolation using a layered representation. ACM Transactions on Graphics, 2004, 23(3):600–608.

  [6] Zhang L, Curless B, and Seitz S. M. Rapid shape acquisition using color structured light and multi-pass dynamic programming. Proceedings of the 1st International Symposium on 3D Data Processing, Visualization, and Transmission (3DPVT), Padova, Italy, June 19-21, 2002. 24-36.

  [7] Kolb A, Barth E, and Koch R. ToF-sensors: New dimensions for realism and interactivity. Proceedings of IEEE Conference on Computer Vision & Pattern Recognition, Workshop on ToF-Camera based Computer Vision, 2008.

  [8] Microsoft Corp. Redmond WA. Kinect for Xbox 360.

  [9] Newcombe R A, Izadi S, Hilliges O, et al. KinectFusion: Real-time dense surface mapping and tracking[C]//Mixed and augmented reality (ISMAR), 2011 10th IEEE international symposium on. IEEE, 2011: 127-136.

  [10] Buss S R. Introduction to inverse kinematics with jacobian transpose, pseudoinverse and damped least squares methods[J]. IEEE Journal of Robotics and Automation, 2004, 17(1-19): 16.

  [11] Kavan L, Collins S, ?ára J, et al. Skinning with dual quaternions[C]//Proceedings of the 2007 symposium on Interactive 3D graphics and games. ACM, 2007: 39-46.

  [12] Vaillant R, Barthe, Lo&#, Guennebaud, Ga&#, et al. Implicit Skinning: Real-Time Skin Deformation with Contact Modeling[J]. Acm Transactions on Graphics, 2013, 32(4):96-96.

  [13] Yang J, Li K, Li K, et al. Sparse Non‐rigid Registration of 3D Shapes[C]// Computer Graphics Forum. 2015:89-99.

本文來(lái)源于中國科技期刊《電子產(chǎn)品世界》2016年第8期第35頁(yè),歡迎您寫(xiě)論文時(shí)引用,并注明出處。



評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>