盈利后首次收購:DeepMind把自用物理模擬引擎MuJoCo買(mǎi)下來(lái)開(kāi)源了
物理模擬引擎 MuJoCo 現在直接開(kāi)源了。
日常生活中,人們通過(guò)與各種物體接觸與世界互動(dòng)。例如走路時(shí)腳接觸地面,書(shū)寫(xiě)時(shí)手指與筆接觸。接觸雖然是種很普遍的現象,但研究起來(lái)卻有些復雜。模擬身體接觸也是機器人研究中非常重要的一部分。
MuJoCo 就是一款在接觸動(dòng)力學(xué)方面非常強大的物理模擬引擎,它提供了超快的動(dòng)力學(xué)模擬,對于模擬機器人手臂和抓取任務(wù)特別有效,在模型預測控制和機器人模仿學(xué)習的研究中也頗具利用價(jià)值。
但是 MuJoCo 一直都需要付費使用,而且價(jià)格不菲?,F在,DeepMind 宣布收購 MuJoCo,向所有用戶(hù)免費開(kāi)放 MuJoCo,并將其開(kāi)源!
社區內的開(kāi)發(fā)者大呼:「這真是一個(gè)好消息,我曾因為 MuJoCo 付費價(jià)格太高而放棄使用!」
DeepMind 表示此舉是為了支持學(xué)術(shù)研究,推動(dòng)科學(xué)發(fā)展。MuJoCo 也一直是 DeepMind 機器人團隊的首選物理模擬引擎,具有豐富的接觸模型、強大的場(chǎng)景描述語(yǔ)言和精心設計的 API。DeepMind 還表示開(kāi)源是為了與 AI 社區一起持續改進(jìn) MuJoCo。不過(guò),目前代碼庫還沒(méi)有開(kāi)放,DeepMind 表示預計將在 2022 年發(fā)布。
開(kāi)源地址:https://github.com/deepmind/mujoco
強大的模擬引擎 MuJoCo
MuJoCo 最初是由華盛頓大學(xué)運動(dòng)控制實(shí)驗室主任、神經(jīng)科學(xué)家 Emo Todorov 開(kāi)發(fā)的,最初被用于解決最優(yōu)控制,狀態(tài)估計和系統識別等領(lǐng)域的問(wèn)題。2015 年被 Robi LLC 打造成商業(yè)產(chǎn)品后,逐漸在機器人社區中被廣泛使用,成為模擬環(huán)境和真實(shí)環(huán)境構建智能控制器的基礎工具。
MuJoCo 的接觸模型能夠準確有效地捕獲接觸對象的顯著(zhù)特征。與其他剛體模擬器一樣,它避免了接觸部位變形的精細細節,并且模擬通常比實(shí)際運行速度快得多。與其他模擬器不同的是,MuJoCo 使用凸高斯原理解決接觸力。MuJoCo 的模型也很靈活,提供了多個(gè)參數,可以調整這些參數以模擬各種接觸現象。
MuJoCo 的強大還體現在它能夠實(shí)現完整的運動(dòng)方程,模擬一些較復雜的物理現象,例如牛頓擺:
還可以模擬旋轉物體因角動(dòng)量守恒而存在的「失重」情況:
MuJoCo 的核心引擎是用 C 語(yǔ)言編寫(xiě)的,因此可以輕松移植到各種架構。作為機器人研究領(lǐng)域的重要工具,MuJoCo 具備強大的場(chǎng)景描述能力,并包含真實(shí)世界機器人組件的各種元素,如等式約束、動(dòng)作捕捉標記、肌腱、執行器和傳感器。同時(shí),MuJoCo 還支持人類(lèi)和動(dòng)物的肌肉骨骼模型,下圖就是 MuJoCo 模擬人腿在肌腱施加力的驅動(dòng)下擺動(dòng):
參考鏈接:
https://deepmind.com/blog/announcements/mujoco
https://www.reddit.com/r/MachineLearning/comments/qaouds/n_deepmind_acquires_mujoco_makes_it_freely/
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。