Google正致力于為可穿戴設備提供基于人工智能的手部追蹤
手部跟蹤在增強現實(shí)應用中非常有用,因為它提供了易于使用的自然用戶(hù)界面來(lái)與數字信息交互,但它通常需要特殊的深度傳感器和獨立處理器等密集且昂貴的技術(shù)。谷歌的增強現實(shí)的愿景是使用Google Glass一般輕便的可穿戴設備來(lái)完成這一操作。今天,一種新的手勢追蹤方法被披露,它只使用前置攝像頭和基于A(yíng)I算法的處理流程,就可以進(jìn)行非常準確的手部跟蹤。
本文引用地址:http://dyxdggzs.com/article/201908/404176.htm該技術(shù)的主要創(chuàng )新是使用傳統算法來(lái)檢測手掌,然后使用基于A(yíng)I的模型來(lái)預測手指的位置,并將這一運算代碼命名為MediaPiPe的跨平臺框架。
MediaPipe可以在手和手指上最多映射21個(gè)點(diǎn),精度高達96%,并且可以在移動(dòng)設備上完成所有操作(即不在云端)。
我們可以想象Google會(huì )在他們的獨家設備上使用它,目前傳聞中的Pixel 4已經(jīng)包括用于手勢控制的Soli傳感器。理想情況下,新技術(shù)的出現將使創(chuàng )建豐富的AR體驗變得容易和便宜,并且能夠創(chuàng )建廉價(jià)但功能強大的AR眼鏡。
評論