<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > MIT新機器人“成精了” 能通過(guò)視覺(jué)和觸覺(jué)識別事物

MIT新機器人“成精了” 能通過(guò)視覺(jué)和觸覺(jué)識別事物

作者: 時(shí)間:2019-06-19 來(lái)源:騰訊科技 收藏
編者按:通過(guò)觀(guān)察場(chǎng)景,我們的模型可以想象觸摸平面或鋒利邊緣的感覺(jué)。通過(guò)盲目的觸摸,我們的模型可以純粹通過(guò)觸覺(jué)來(lái)預測與環(huán)境的交互。將這兩種感覺(jué)結合起來(lái),可以增強機器人的能力,減少我們在操作和抓取對象時(shí)可能需要的數據。

據外媒報道,對于人類(lèi)來(lái)說(shuō),很容易通過(guò)觀(guān)察某個(gè)物體來(lái)判斷其外觀(guān),或者通過(guò)觸摸它來(lái)判斷它給人的感受,但是這對機器來(lái)說(shuō)是可能是個(gè)巨大的挑戰?,F在,美國麻省理工學(xué)院()計算機科學(xué)和人工智能實(shí)驗室(CSL)開(kāi)發(fā)的一種新機器人,正試圖獲得人類(lèi)的能力。

本文引用地址:http://dyxdggzs.com/article/201906/401670.htm

CSL團隊使用KUKA機器人手臂,并添加了一種名為GelSight的傳感器,該傳感器是由CSL下屬泰德·阿德?tīng)柹?Ted Adelson)團隊開(kāi)發(fā)。GelSight收集的信息會(huì )被傳輸給人工智能(AI),以便后者能夠理解信息和信息之間的關(guān)系。

為了教授A(yíng)I如何通過(guò)觸摸來(lái)識別物體,CSAIL團隊錄制了12000個(gè)視頻,記錄了200個(gè)物體,如織物、工具以及被觸摸的家居物品。這些視頻被分解成靜態(tài)圖像,AI使用這個(gè)數據集來(lái)連接觸覺(jué)和數據。

CSAIL博士生、關(guān)于該系統的新論文主要作者李云珠(音譯)表示:“通過(guò)觀(guān)察場(chǎng)景,我們的模型可以想象觸摸平面或鋒利邊緣的感覺(jué)。通過(guò)盲目的觸摸,我們的模型可以純粹通過(guò)觸覺(jué)來(lái)預測與環(huán)境的交互。將這兩種感覺(jué)結合起來(lái),可以增強機器人的能力,減少我們在操作和抓取對象時(shí)可能需要的數據?!?/p>

目前,機器人只能在受控環(huán)境中識別物體。下一步是建立更大的數據集,這樣機器人就可以在更不同的環(huán)境下工作。

加州大學(xué)伯克利分校博士后安德魯·歐文斯(Andrew Owens)表示:“這種方法可能對機器人非常有用,因為它們需要回答這樣的問(wèn)題:‘這個(gè)物體是硬的還是軟的?’或者‘如果我用手把這個(gè)杯子舉起來(lái),我的抓力會(huì )有多好?’這些都是非常具有挑戰性的問(wèn)題,因為信號是如此的不同,而的模型已經(jīng)顯示出很強的能力?!?/p>



關(guān)鍵詞: MIT 視覺(jué) 觸覺(jué) AI

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>