<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > 無(wú)需人臉檢測和關(guān)鍵點(diǎn)定位,Facebook等提出實(shí)時(shí)3D人臉姿態(tài)估計新方法

無(wú)需人臉檢測和關(guān)鍵點(diǎn)定位,Facebook等提出實(shí)時(shí)3D人臉姿態(tài)估計新方法

發(fā)布人:CV研究院 時(shí)間:2021-07-16 來(lái)源:工程師 發(fā)布文章

來(lái)自 Facebook AI 和美國圣母大學(xué)的研究者提出了一種 6 自由度的實(shí)時(shí) 3D 人臉姿態(tài)估計技術(shù),可以不依賴(lài)人臉檢測和人臉關(guān)鍵點(diǎn)定位獨立運行。

人臉檢測是給照片中的每個(gè)人臉指定一個(gè)邊界框,人臉關(guān)鍵點(diǎn)檢測則需要定位特殊的人臉特征,如眼睛中心、鼻尖等?;诙叩膬刹阶叻椒ㄊ呛芏嗳四樛评砣蝿?wù)的關(guān)鍵所在,如 3D 重建。

這種方法的處理過(guò)程通??梢员硎鰹椋菏紫葓绦腥四槞z測,然后在每個(gè)檢測到的人臉邊界框中執行關(guān)鍵點(diǎn)檢測。接下來(lái),將檢測到的關(guān)鍵點(diǎn)與參考 2D 圖像或 3D 模型上對應的理想位置進(jìn)行匹配,然后使用標準方法求解對齊變換。因此,「人臉對齊」和「關(guān)鍵點(diǎn)檢測」這兩個(gè)術(shù)語(yǔ)有時(shí)可以互換使用。

這種方法應用起來(lái)非常成功,但計算成本很高,尤其是那些 SOTA 模型。而且,關(guān)鍵點(diǎn)檢測器通常針對由特定人臉檢測器生成的邊界框特性進(jìn)行優(yōu)化,因此一旦人臉檢測器更新,關(guān)鍵點(diǎn)檢測器就需要重新進(jìn)行優(yōu)化。最后,在下圖 1 所示的密集人臉圖像場(chǎng)景中,準確定位標準的 68 個(gè)人臉關(guān)鍵點(diǎn)會(huì )變得非常困難,進(jìn)而加大了估計其姿態(tài)和人臉對齊的難度。

1.png

為了解決這些問(wèn)題,來(lái)自 Facebook AI 和圣母大學(xué)的研究者提出了以下重要觀(guān)察結果:

首先,估計人臉的 6 自由度(6DoF)剛性變換比人臉關(guān)鍵點(diǎn)檢測要簡(jiǎn)單。6DoF 指的是在人體在 3D 空間里的活動(dòng)情況,在 3 自由度(上下俯仰、左右搖擺和滾動(dòng))的基礎上增加了前 / 后、上 / 下、左 / 右三種移動(dòng)方式。這一觀(guān)察結果啟發(fā)了很多研究者,促使他們提出「跳過(guò)關(guān)鍵點(diǎn)檢測,直接進(jìn)行姿態(tài)估計」的想法,但這些方法還是要為檢測到的人臉估計姿態(tài)。相比之下,Facebook AI 和圣母大學(xué)的研究者的目標是在不假設人臉已經(jīng)被檢測到的情況下估計姿態(tài)。

其次,6DoF 姿態(tài)標簽捕獲的不僅僅是邊界框位置信息。與一些研究者提出的 3DoF 姿態(tài)估計不同,6DoF 姿態(tài)可以轉換為一個(gè) 3D-to-2D 的投影矩陣。假設有一個(gè)已知的內在相機,姿態(tài)可以使 3D 人臉與它在照片中的位置一致。因此,姿態(tài)已經(jīng)捕捉了照片中人臉的位置。然而,雖然增加了兩個(gè)額外的標量(6D 姿態(tài) vs. 每個(gè)框的四個(gè)值),6DoF 姿態(tài)還可以提供人臉的 3D 位置和方向信息。最近,有些研究用上了這一觀(guān)察結果,通過(guò)提出邊界框和人臉關(guān)鍵點(diǎn)的多任務(wù)學(xué)習來(lái)提高檢測準確率。而本文的研究者則將兩者結合在單個(gè)目標中——直接 regress 6DoF 人臉姿態(tài)。

他們提出了一個(gè)易于訓練的新型實(shí)時(shí) 6DoF 3D 人臉姿態(tài)估計解決方案,可以跳過(guò)人臉檢測步驟,即使在非常擁擠的圖片中也不例外(如圖 1)。該方法在一個(gè)基于 Faster R-CNN 的框架中 regress 6DoF 姿態(tài)。

這項研究的創(chuàng )新之處在于,它真正擺脫了人臉對齊和關(guān)鍵點(diǎn)檢測?!肝覀冇^(guān)察到,估計人臉的 6DoF 剛性變換比人臉目標點(diǎn)檢測要簡(jiǎn)單。此外,6DoF 提供的信息要比人臉邊界框標簽豐富,」研究者解釋道。

新方法的 pipeline 可以描述為:給定一張包含多張人臉的圖像,首先估計每張人臉的 6DoF 姿態(tài)。由于 6DoF 人臉姿態(tài)可以轉換為一個(gè)外在相機矩陣,進(jìn)而將 3D 人臉映射到 2D 圖像平面,因此預測得到的 3D 人臉姿態(tài)也可用于獲取準確的 2D 人臉邊界框。因此,人臉檢測將成為這個(gè)過(guò)程的副產(chǎn)品,計算開(kāi)銷(xiāo)達到最小。

2.png

利用 6DoF 姿態(tài)估計替代人臉邊界框檢測之后,輸入圖像中所有的 3D 人臉形狀都可以得到對齊。而且,由于該姿態(tài)將具有已知幾何形狀的 3D 形狀與圖像中的面部區域對齊,因此我們可以根據大小和形狀調整生成的面部邊界框,匹配特定的研究需求。

研究者使用小而快的 ResNet-18 骨干網(wǎng)絡(luò )構建 img2pose 模型,并在 WIDER FACE 訓練集上進(jìn)行訓練(該數據集包含弱監督標簽和人工標注的真值姿態(tài)標簽)。他們在兩個(gè)領(lǐng)先的基準數據集( AFLW2000-3D 和 BIWI )上測試了 img2pose 的實(shí)時(shí)推斷能力,發(fā)現該模型在實(shí)時(shí)運行時(shí)性能超越當前最優(yōu)的人臉姿態(tài)估計器,還在關(guān)鍵點(diǎn)檢測方面超越了具備類(lèi)似復雜度的模型,盡管新模型并沒(méi)有在邊界框標簽上進(jìn)行優(yōu)化。

以下是論文中的一些實(shí)驗結果:

3.png4.png

論文鏈接:https://arxiv.org/pdf/2012.07791.pdf

項目鏈接:https://github.com/vitoralbiero/img2pos

*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: 深度學(xué)習

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>