核心概念
本文提出了一種名為Quantized Skill Transformer (QueST)的新架構,能夠從大型多任務演示數據中學習通用的低階技能表示,並有效地應用於新任務中。
摘要
本文提出了Quantized Skill Transformer (QueST),一種用於學習可轉移的低階技能表示的新架構。QueST由兩個主要部分組成:
-
自我監督式技能抽象:
- QueST使用一種獨特的編碼器-解碼器架構,將連續動作序列映射到一個離散的潛在技能空間。
- 編碼器使用因果卷積和掩碼自注意力層,以捕捉動作序列中的因果關係,從而學習到語義有意義的技能表示。
- 解碼器採用交叉注意力機制,能夠有效地重建原始動作序列。
-
基於技能的決策:
- QueST學習一個自回歸的技能先驗模型,能夠根據觀察和任務描述來預測技能序列。
- 在推理時,QueST使用技能先驗模型和解碼器來採樣和生成動作序列。
實驗結果表明,QueST在多任務和少樣本遷移學習基準測試中均優於最先進的基線方法,分別提高了8%和14%的平均成功率。此外,QueST的技能表示也展示了良好的語義結構和可轉移性。
统计
在LIBERO-90基準測試中,QueST的平均成功率為88.6%,比下一個最佳基線高8%。
在LIBERO-LONG基準測試的5樣本遷移學習中,QueST的平均成功率為68.8%,比下一個最佳基線高14%。
在MetaWorld ML45基準測試的多任務學習中,QueST的平均成功率為91.7%,與基線方法相當。
引用
"本文提出了一種名為Quantized Skill Transformer (QueST)的新架構,能夠從大型多任務演示數據中學習通用的低階技能表示,並有效地應用於新任務中。"
"實驗結果表明,QueST在多任務和少樣本遷移學習基準測試中均優於最先進的基線方法,分別提高了8%和14%的平均成功率。"