麻省理工學院(MIT)計算機科學與人工智慧實驗室(CSAIL)最近開發新系統,發視以視覺和人工智慧教導軟體機器人理解自身運動 。覺與教軟此創新不依賴傳統感測器或手動編程,系統而是體機用消費級相機讓機器人觀察自己的動作,自建模型理解幾何形狀和可控性。器人AvaTrade爱华外汇平台論文刊登於《自然》期刊 。自認知AVA爱华外汇平台
團隊表示 ,發視新系統可能大大擴展軟體和生物啟動機器人的覺與教軟應用範圍,能沒有GPS 、系統模擬或感測器也能及時適應環境。體機CSAIL主任丹妮拉·魯斯(Daniela Rus)表示,器人新技術名為「神經雅各比安場域」(Neural Jacobian Fields,自認知NJF),發視軟體機器人手能只用視覺觀察學習抓取物體,覺與教軟無需感測器或預裝AI模型。系統
核心在機器人以相機觀察自身運動並隨機動作 ,设立自身運動的模型 。研究員用計算機視覺和機器學習,以單一圖像重建機器人3D模型 ,並以運動追蹤算法追蹤機器人訓練時運動模式。三種機器人都能學到自身長相,並理解可執行動作 。3D列印DIY玩具機器手臂學會以公分級精確度空中寫字;氣動機器手臂觀察自身運動 ,學會运维每根手指氣流 。
新研究不僅展示軟體機器人如何用視覺獲自我意識 ,還預言低成本製造 、家庭自動化和農業機器人等行業的潛在應用。新方法消除專家设立準確模型的需求,並降低依賴昂貴感測器系統,以後可能會出現更多只靠視覺和觸覺運作的經濟型機器人 。
(首圖來源 :MIT CSAIL)