<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > 李飛飛「具身智能」新成果!機器人接入大模型直接聽(tīng)懂人話(huà),0預訓練就能完成復雜指令(2)

李飛飛「具身智能」新成果!機器人接入大模型直接聽(tīng)懂人話(huà),0預訓練就能完成復雜指令(2)

發(fā)布人:計算機視覺(jué)工坊 時(shí)間:2023-07-11 來(lái)源:工程師 發(fā)布文章
圖片 將廢紙放進(jìn)藍色托盤(pán)

以下分別是VoxPoser在真實(shí)和模擬環(huán)境中的表現(衡量指標為平均成功率)

圖片

可以看到,無(wú)論是哪種環(huán)境哪種情況(有無(wú)干擾、指令是否可見(jiàn)),它都顯著(zhù)高于基于原語(yǔ)的基線(xiàn)任務(wù)。

最后,作者還驚喜地發(fā)現,VoxPoser產(chǎn)生了4個(gè)“涌現能力”

(1)評估物理特性,比如給定兩個(gè)質(zhì)量未知的方塊,讓機器人使用工具進(jìn)行物理實(shí)驗,確定哪個(gè)塊更重;

(2)行為常識推理,比如在擺餐具的任務(wù)中,告訴機器人“我是左撇子”,它就能通過(guò)上下文理解其含義;

(3)細粒度校正,比如執行“給茶壺蓋上蓋子”這種精度要求較高的任務(wù)時(shí),我們可以向機器人發(fā)出“你偏離了1厘米”等精確指令來(lái)校正它的操作;

(4)基于視覺(jué)的多步操作,比如叫機器人將抽屜精準地打開(kāi)成一半,由于沒(méi)有對象模型導致的信息不足可能讓機器人無(wú)法執行這樣的任務(wù),但VoxPoser可以根據視覺(jué)反饋提出多步操作策略,即首先完全打開(kāi)抽屜同時(shí)記錄手柄位移,然后將其推回至中點(diǎn)就可以滿(mǎn)足要求了。

圖片

李飛飛:計算機視覺(jué)的3顆北極星

大約一年前,李飛飛在美國文理學(xué)會(huì )會(huì )刊上撰文,指出計算機視覺(jué)發(fā)展的三個(gè)方向:

  • 具身智能(Embodied AI)

  • 視覺(jué)推理(Visual Reasoning)

  • 場(chǎng)景理解(Scene Understanding)

圖片

李飛飛認為,具身智能不單指人形機器人,任何能在空間中移動(dòng)的有形智能機器都是人工智能的一種形式。

正如ImageNet旨在表示廣泛且多樣化的現實(shí)世界圖像一樣,具身智能研究也需要解決復雜多樣的人類(lèi)任務(wù),從疊衣服到探索新城市。

遵循指令執行這些任務(wù)需要視覺(jué),但需要的不僅僅是視覺(jué),也需要視覺(jué)推理理解場(chǎng)景中的三維關(guān)系。

最后機器還要做到理解場(chǎng)景中的人,包括人類(lèi)意圖和社會(huì )關(guān)系。比如看到一個(gè)人打開(kāi)冰箱能判斷出他餓了,或者看到一個(gè)小孩坐在大人腿上能判斷出他們是親子關(guān)系。

機器人結合大模型可能正是解決這些問(wèn)題的一個(gè)途徑。

圖片

除李飛飛外,參與本次研究的還有清華姚班校友吳佳俊,博士畢業(yè)于MIT,現為斯坦福大學(xué)助理教授。

圖片

論文一作Wenlong Huang現為斯坦福博士生,在谷歌實(shí)習期間參與了PaLM-E研究。

圖片

論文地址:
https://voxposer.github.io/voxposer.pdf
項目主頁(yè):
https://voxposer.github.io/
參考鏈接:
[1]
https://twitter.com/wenlong_huang/status/1677375515811016704
[1]https://www.amacad.org/publication/searching-computer-vision-north-stars


*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>