人臉專(zhuān)集知識鞏固3 | 人臉關(guān)鍵點(diǎn)檢測(下)
Deep learning based methods
近年來(lái),深度學(xué)習成為解決計算機視覺(jué)問(wèn)題的常用工具。對于人臉關(guān)鍵點(diǎn)檢測和跟蹤,有從傳統方法向基于深度學(xué)習的方法轉變的趨勢。
在早期的工作中(Wu, Y., Wang, Z., Ji, Q.: Facial feature tracking under varying facial expressions and face poses based on restricted boltzmann machines. In: IEEE Conference on Computer Vision and Pattern Recognition, pp. 3452–3459 (2013)),深層Boltzmann模型,一個(gè)概率深度模型,被用來(lái)捕捉由于姿態(tài)和表情而引起的面部形狀變化,用于人臉里程碑的檢測和跟蹤。近年來(lái),卷積神經(jīng)網(wǎng)絡(luò )模型成為人臉關(guān)鍵點(diǎn)檢測,主要是深度學(xué)習模型,并且大多采用全局直接回歸或級聯(lián)回歸框架。這些方法大致可分為純學(xué)習法和混合學(xué)習法。
純學(xué)習方法直接預測人臉關(guān)鍵點(diǎn)位置,而混合學(xué)習方法則將深度學(xué)習方法與計算機視覺(jué)投影模型相結合進(jìn)行預測。
Pure-learning methods
純學(xué)習方法:這類(lèi)方法使用強大的CNNs模型從人臉圖像中直接預測關(guān)鍵點(diǎn)位置。在早期的工作中(Sun, Y., Wang, X., Tang, X.: Deep convolutional network cascade for facial point detection. In: IEEE Conference on Computer Vision and Pattern Recognition, pp. 3476–3483 (2013)),它以級聯(lián)的方式預測了五個(gè)人臉關(guān)鍵點(diǎn)。在第一層,它應用一個(gè)包含四個(gè)卷積層的CNN模型(下圖)來(lái)預測由面部邊界框確定的人臉圖像的關(guān)鍵點(diǎn)位置。然后,幾個(gè)淺層網(wǎng)絡(luò )對每個(gè)點(diǎn)進(jìn)行局部細化。
從那以后,在兩個(gè)方向上都比早起某些工作有一些改進(jìn)。在第一個(gè)方向上,(Zhang, Z., Luo, P., Loy, C., Tang, X.: Facial landmark detection by deep multi-task learning. In: European Conference on Computer Vision, Part II, pp. 94–108(2014)和Zhang, Z., Luo, P., Loy, C.C., Tang, X.: Learning deep representation for face alignment with auxiliary attributes. IEEE Transactions on Pattern Analysis and Machine Intelligence 38(5), 918–930 (2016))利用多任務(wù)學(xué)習的思想來(lái)提高性能。直覺(jué)是,多個(gè)任務(wù)可以共享相同的表示,它們的聯(lián)合關(guān)系將提高單個(gè)任務(wù)的性能。例如,多任務(wù)學(xué)習與CNN模型相結合,共同預測面部特征、面部頭部姿態(tài)、面部屬性等。在該工作(Ranjan, R., Patel, V.M., Chellappa, R.: Hyperface: A deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition. CoRR abs/1603.01249 (2016). URL http://arxiv.org/abs/1603.01249)提出了一個(gè)類(lèi)似的多任務(wù)CNN框架,以聯(lián)合執行人臉檢測、地標定位、姿態(tài)估計和性別識別。不同的是它結合了多個(gè)卷積層的特征,以利用粗特征表示和精細特征表示。
在第二個(gè)方向上,一些工作改進(jìn)了方法的級聯(lián)程序(Sun, Y., Wang, X., Tang, X.: Deep convolutional network cascade for facial point detection. In: IEEE Conference on Computer Vision and Pattern Recognition, pp. 3476–3483 (2013))。例如,某paper構造了類(lèi)似的級聯(lián)CNN模型來(lái)預測更多的點(diǎn)(68個(gè)關(guān)鍵點(diǎn)而不是5個(gè))(Zhou, E., Fan, H., Cao, Z., Jiang, Y., Yin, Q.: Extensive facial landmark localization with coarse-to-fine convolutional network cascade. In: IEEE International Conference on Computer Vision Workshops, pp. 386–391 (2013))。它從所有68個(gè)點(diǎn)的預測開(kāi)始,并逐步將預測分解為局部的面部成分。在該paper(Zhang, J., Shan, S., Kan, M., Chen, X.: Coarse-to-fine auto-encoder networks (CFAN) for real-time face alignment. In: European Conference on Computer Vision, Part II, pp. 1–16 (2014))中,深層自動(dòng)編碼器模型用于執行相同的級聯(lián)關(guān)鍵點(diǎn)搜索。而在(Trigeorgis, G., Snape, P., Nicolaou, M.A., Antonakos, E., Zafeiriou, S.: Mnemonic descent method: A recurrent process applied for end-to-end face alignment. In: IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 4177–4187. Las Vegas, NV, USA (2016))中,Trigeorgis等人沒(méi)有以級聯(lián)的方式訓練多個(gè)網(wǎng)絡(luò ),訓練了一種深度卷積遞歸神經(jīng)網(wǎng)絡(luò )(RNN),用于端到端面部關(guān)鍵點(diǎn)的檢測,以模擬級聯(lián)行為。級聯(lián)階段嵌入到RNN的不同時(shí)間切片中。
Hybrid deep methods
混合深度方法將CNN與3D視覺(jué)相結合,如投影模型和三維形變形狀模型(上圖)。它們不是直接預測二維面部關(guān)鍵點(diǎn)位置,而是預測三維形狀可變形模型系數和頭部姿態(tài)。然后,通過(guò)計算機視覺(jué)投影模型確定二維關(guān)鍵點(diǎn)位置。例如,(Zhu, X., Lei, Z., Liu, X., Shi, H., Li, S.: Face alignment across large poses: A 3d solution. In: IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV (2016))建立了一個(gè)密集的三維人臉模型。然后,采用迭代級聯(lián)回歸框架和深度CNN模型對三維人臉形狀系數和姿態(tài)參數進(jìn)行更新。在每一次迭代中,利用視覺(jué)投影模型將三維形狀投影到二維,并將二維形狀作為CNN回歸預測模型的附加輸入,以融合目前估計的三維參數。類(lèi)似地,(Kanade, T., Cohn, J.F., Tian, Y.: Comprehensive database for facial expression analysis. In: IEEE International Conference on Automatic Face and Gesture Recognition, pp. 46–53)在第一個(gè)級聯(lián)CNN模型中使用整個(gè)面部外觀(guān)來(lái)預測三維形狀參數和姿態(tài)的更新,而在后期級聯(lián)CNN模型中使用局部斑塊來(lái)細化關(guān)鍵點(diǎn)。
與純學(xué)習方法相比,混合方法的三維形狀變形模型和姿態(tài)參數是表示二維關(guān)鍵點(diǎn)位置的更為緊湊的方法。因此,CNN中需要估計的參數較少,形狀約束可以顯式地嵌入到預測中。此外,由于引入了三維姿態(tài)參數,它們可以更好地處理姿態(tài)變化。
三大類(lèi)之間的關(guān)系分析
在之前講解中,我們討論了面部表情三種主要類(lèi)別中的關(guān)鍵點(diǎn)檢測方法:整體方法、約束局部方法(CLM)和基于回歸的方法。三種主要的方法存在著(zhù)相似之處和相互關(guān)系。
首先,整體方法和CLMs都將使用顯式構造的面部形狀模型捕捉全局面部形狀模式,這些模型通常在它們之間共享。CLMs改進(jìn)了整體方法,因為它們使用局部外觀(guān),而不是整體的面部外觀(guān)。所需的動(dòng)機是將整體的面部外觀(guān)建模更困難,并且局部圖像修補程序與整體外觀(guān)模型相比,光照改變和面部遮擋更加魯棒。
第二,基于回歸的方法,尤其是用于級聯(lián)回歸方法與整體AAM共享相似的直覺(jué)。例如,它們通過(guò)擬合外觀(guān)來(lái)估計關(guān)鍵點(diǎn),并且它們全部可以被配制成非線(xiàn)性的平方問(wèn)題。然而,整體方法預測2D形狀,外觀(guān)模型系數通過(guò)擬合整體外觀(guān)模型,而級聯(lián)回歸方法直接通過(guò)擬合局部外觀(guān)而不顯式2D形狀模型來(lái)預測關(guān)鍵點(diǎn)。該配件整體方法的問(wèn)題可以用基于LearnBased的方法或分析方式來(lái)解決,如前面所討論的那樣,所有級聯(lián)回歸方法執行通過(guò)學(xué)習進(jìn)行估計。雖然整體模型的基于學(xué)習的擬合方法通常使用相同的方法,用于以迭代方式進(jìn)行系數更新的模型,級聯(lián)回歸方法以級聯(lián)方式學(xué)習不同的回歸模型。
AAM模型在之前討論為一種特定類(lèi)型的整體方法非常類(lèi)似于監督下降方法(SDM)(Xiong, X., De la Torre Frade, F.: Supervised descent method and its applications to face alignment. In: IEEE International Conference on Computer Vision and Pattern Recognition (2013))作為一種特定類(lèi)型的方法級聯(lián)回歸方法。兩個(gè)級聯(lián)學(xué)習從形狀索引特征到形狀(系數)更新的映射的模型。經(jīng)訓練的模型在當前級聯(lián)階段中,將修改訓練用于在下一狀態(tài)下訓練回歸模型的數據。雖然以前的整體方法適合整體外觀(guān)并預測模型系數,但SDM擬合局部外觀(guān)并預測關(guān)鍵點(diǎn)位置。
第三,在CLM中使用的基于regressional的局部外觀(guān)模型中存在相似性。之前的基于回歸方法,兩者都預測從關(guān)鍵點(diǎn)位置的初始猜測的位置更新。以前的方法獨立地預測每個(gè)關(guān)鍵點(diǎn)位置,而后來(lái)的方法預測它們是聯(lián)合的,形狀約束可以隱式嵌入。以前的方法通常執行一步預測,相同的回歸模型,而后面的方法可以以級聯(lián)方式應用不同的回歸函數。
第四,與整體方法和約束局部方法相比,基于回歸的方法可能會(huì )更有希望?;诨貧w的方法繞過(guò)顯式面部形狀建模并隱式嵌入人臉形狀模式約束?;诨貧w的方法直接預測關(guān)鍵點(diǎn),而不是整體方法中的模型系數。直接預測形狀通??梢杂捎谛∧P拖禂?,實(shí)現較好的精度錯誤可能導致大的關(guān)鍵點(diǎn)誤差。
預測困難
人臉姿勢
人臉遮擋
人臉表情
下期我們針對各種因素進(jìn)行講解,并在流行的數據集上的實(shí)驗效果做詳細描述,最后給出未來(lái)趨勢及著(zhù)重點(diǎn)。
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。
電接點(diǎn)壓力表相關(guān)文章:電接點(diǎn)壓力表原理