傳動網 > 新聞頻道 > 行業資訊 > 資訊詳情

MIT實現僅單攝像頭精準控制運動機器人技術

時間:2025-07-14

來源:IT之家

導語:7 月 13 日消息,麻省理工學院(MIT)團隊提出一種基于視覺的深度學習方法,僅需單個攝像頭即可讓軟體機器人和仿生機器人學習運動與控制。

  7 月 13 日消息,麻省理工學院(MIT)團隊提出一種基于視覺的深度學習方法,僅需單個攝像頭即可讓軟體機器人和仿生機器人學習運動與控制。

  該技術突破有望大幅降低機器人開發成本,相關成果已于 6 月 25 日發表于《自然》主刊(IT之家附 DOI: 10.1038/s41586-025-09170-0)。

  傳統工業機器人雖易于建模控制,但剛性結構難以適應狹小或不平坦地形。軟體及仿生機器人雖具備環境適應優勢,卻通常依賴大量傳感器和定制化空間模型。

  現在,MIT 團隊通過深度學習技術解決了這一矛盾。新系統僅需通過單個攝像頭捕捉機器人運動畫面,結合名為“神經雅可比場(NJF)”的技術,使機器人通過視覺反饋建立對自身形態與運動能力的認知。

  研究團隊對多種機器人進行了 2-3 小時多視角隨機運動視頻訓練,成功讓神經網絡通過單幀圖像重建機器人三維形態與運動范圍。

  在氣動軟體機械手、奧利格羅機械手(16 自由度)、3D 打印機械臂及低成本 Poppy 機械臂等測試中,系統實現:

  關節運動誤差小于 3 度

  指尖控制誤差小于 4 毫米

  可自適應環境動態變化

  MIT 助理教授文森特?西茨曼(Vincent Sitzmann)表示:“視覺作為彈性傳感器,為農場、工地等非結構化環境中的機器人應用開啟新可能。”

  CSAIL 主任丹妮拉?羅斯(Daniela Rus)補充道:“視覺反饋使系統建立自身運動動力學內部模型,在傳統定位方法失效處實現自監督操作。”


中傳動網版權與免責聲明:

凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.hysjfh.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統
  • 工業電源
  • 電力電子
  • 工業互聯
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯接
  • 工業機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0