本文提出了一種名為動態自適應儲備池計算 (DARC) 的新型機器人技能學習方法,該方法結合了示範學習 (LfD) 和強化學習 (RL) 的優勢,通過動態調節儲備池的上下文輸入,實現對未見過任務的泛化和高效學習。
本文提出了一種透過自我探索將大型預訓練影片模型與機器人動作連結起來的方法,並在模擬機器人操作和導航任務中驗證了其有效性。
本文提出了一種名為 TAPAS-GMM 的新方法,能夠讓機器人僅從五個演示中學習複雜的操作任務,並透過技能分割、自動選擇任務參數和利用視覺語義特徵,實現對不同物件、環境和干擾的高度泛化能力。
本文提出了一種新的機器人技能習得概率模型,將技能解釋為潛在空間中的反饋控制器,並透過切換這些控制器來實現複雜任務的學習。
本文提出了一種基於動詞的機器人技能泛化方法,使機器人能夠理解和執行應用於新物件的自然語言指令。
本文提出了一種名為空間採樣(SS)的新演算法,用於機器人從多個演示中學習技能,通過弧長參數化實現軌跡的時間無關對齊,提高了技能表示的準確性和魯棒性。
本文提出了一種基於非對稱自我博弈和乘法組合策略的機器人技能學習方法,該方法能夠讓機器人自主地發現和學習可組合的操控技能,並將其應用於解決未曾見過的操控任務。