<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 機器人也能有“觸覺(jué)”?英特爾神經(jīng)擬態(tài)計算大有可為

機器人也能有“觸覺(jué)”?英特爾神經(jīng)擬態(tài)計算大有可為

作者: 時(shí)間:2020-07-17 來(lái)源:電子信息產(chǎn)業(yè)網(wǎng) 收藏

7月16日,新加坡國立大學(xué)(NUS)的兩名研究人員,同時(shí)也是神經(jīng)擬態(tài)研究社區(INRC)的成員發(fā)表了最新研究結果,表明在機器人領(lǐng)域,與基于事件的視覺(jué)和觸覺(jué)感知相結合,大有可為。這項工作著(zhù)重介紹了與目前只有視覺(jué)的系統相比,將觸覺(jué)引入機器人技術(shù)能夠顯著(zhù)提升系統能力和功能,并且神經(jīng)擬態(tài)芯片在處理此類(lèi)感官數據方面能夠超越傳統架構。

本文引用地址:http://dyxdggzs.com/article/202007/415784.htm

實(shí)驗室主任Mike Davies表示:“新加坡國立大學(xué)的這項研究,讓人們對機器人技術(shù)的未來(lái)有了深刻的了解,也就是說(shuō),未來(lái)機器人會(huì )以事件驅動(dòng)的方式,結合多模態(tài)來(lái)感知和處理信息。有越來(lái)越多類(lèi)似的研究顯示,一旦我們對整個(gè)系統進(jìn)行基于事件的范式重新設計,包括傳感器、數據格式、算法和硬件體系結構,的使用可以顯著(zhù)降低延遲和功耗?!?/p>

人類(lèi)的觸覺(jué)足夠靈敏,可以感覺(jué)到不同表面之間的細微不同,哪怕這些差異僅僅是一層分子的區別。然而,現在大多數機器人的操作都是基于視覺(jué)處理。新加坡國立大學(xué)的研究人員希望用他們最近開(kāi)發(fā)的人造皮膚來(lái)改變這一狀況。根據他們的研究,這種人造皮膚在檢測觸覺(jué)方面,可以比人類(lèi)的感覺(jué)神經(jīng)系統快1000倍以上,并且在識別物體的形狀、質(zhì)地和硬度方面,可以比人類(lèi)眨眼速度快10倍。

在機器人技術(shù)中啟用類(lèi)似于人類(lèi)的觸覺(jué),可以顯著(zhù)提升當前系統功能,甚至可以產(chǎn)生新的用例。例如,配備有人造皮膚的機械臂可以很容易地適應工廠(chǎng)生產(chǎn)的商品的變化,利用觸感來(lái)識別和抓住不熟悉的物體,并施加適當的壓力以防止打滑。這種能夠感覺(jué)并更好地感知周?chē)h(huán)境的能力,還可以在例如護理行業(yè)中讓人與機器人更緊密、更安全地互動(dòng),或者賦予外科手術(shù)機器人目前所缺乏的觸覺(jué),使我們更接近手術(shù)任務(wù)的自動(dòng)化。

雖然創(chuàng )造人造皮膚是實(shí)現這一愿景的第一步,但它還需要一種芯片,這種芯片需要根據皮膚的感官數據實(shí)時(shí)得出準確的結論,同時(shí)以足夠節能的水平運行,以便可以直接部署在機器人內部?!叭绻f(shuō)讓機器人變得更智能是一幅拼圖,制造超快的人造皮膚傳感器只解決了大約一半,”新加坡國立大學(xué)材料科學(xué)與工程系、健康與創(chuàng )新技術(shù)研究所的助理教授Benjamin Tee表示,“機器人還需要一個(gè)能夠最終實(shí)現感知和學(xué)習的人工大腦,這是這幅拼圖中的另一個(gè)關(guān)鍵部分。我們用英特爾Loihi等神經(jīng)擬態(tài)芯片對AI皮膚系統進(jìn)行了獨特研究,為實(shí)現能效和擴展性邁出了重要一步?!?/p>

為了在機器人感知領(lǐng)域進(jìn)行突破,新加坡國立大學(xué)團隊開(kāi)始探索神經(jīng)擬態(tài)技術(shù)的潛力,嘗試利用英特爾Loihi神經(jīng)擬態(tài)研究芯片處理來(lái)自人造皮膚的感官數據。在最初的實(shí)驗中,研究人員使用配有人造皮膚的機械手讀取盲文,將觸覺(jué)數據通過(guò)云傳遞給Loihi,以將手感覺(jué)到的微突轉化為語(yǔ)義。在對盲文字母進(jìn)行分類(lèi)上,Loihi達到了92%以上的準確率,而功耗卻比標準的馮·諾依曼處理器低20倍。

在這項工作的基礎上,新加坡國立大學(xué)團隊通過(guò)將視覺(jué)和觸覺(jué)數據結合到脈沖神經(jīng)網(wǎng)絡(luò )(SNN)中,進(jìn)一步提高了機器人的感知能力。為此,他們讓一個(gè)機器人利用來(lái)自人造皮膚和基于事件的相機的感官輸入,對裝有不同量液體的各種不透明容器進(jìn)行分類(lèi)。研究人員也使用了相同的觸覺(jué)和視覺(jué)傳感器,來(lái)測試感知系統識別旋轉滑移的能力,這對于穩定抓握至關(guān)重要。

當捕獲到這些感官數據后,研究小組將其分別發(fā)送給GPU和英特爾的Loihi神經(jīng)擬態(tài)研究芯片,從而比較兩者的處理能力。本周在《機器人學(xué):科學(xué)與系統》上發(fā)表的研究結果表明,與僅使用視覺(jué)的系統相比,使用脈沖神經(jīng)網(wǎng)絡(luò )(SNN)與基于事件的視覺(jué)和觸覺(jué)相結合,可以使物品分類(lèi)的準確率提高10%。此外,研究人員也展示了神經(jīng)擬態(tài)技術(shù)用于為此類(lèi)機器人設備中的功耗情況,Loihi處理感官數據的速度比高性能的GPU還要快21%,而功耗卻降低了45倍。

新加坡國立大學(xué)計算學(xué)院計算機科學(xué)系的助理教授Harold Soh表示:“我們對這些研究結果感到興奮。這表明神經(jīng)擬態(tài)系統有希望結合多傳感器,解決機器人感知能力難題。這讓我們朝著(zhù)制造節能而且值得信賴(lài)的機器人又邁出了一步,這種機器人能夠在意外情況下迅速、恰當地做出反應?!?nbsp;




評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>