本論文では、メタ強化学習(meta-RL)の課題を解決するためのアプローチとしてRL3を提案している。
メタ強化学習では、タスク分布から効率的にデータを活用して、様々なタスクに適応できる強化学習アルゴリズムを学習する。しかし、従来のメタ強化学習手法は以下の課題を抱えていた:
これらの課題は、メタ強化学習がシーケンスモデルに依存しているためだと指摘されている。シーケンスモデルは経験データを効果的に要約できず、一般的な強化学習コンポーネントを活用できないためである。
一方、伝統的な強化学習アルゴリズムは、ドメイン知識を活用せずにデータ非効率であるものの、最適な方策に収束する。
RL3は、この両者の長所を組み合わせる。具体的には、タスク固有の最適Q値推定値を、メタ強化学習のための入力に追加する。これにより、メタ学習者がRLの一般的なコンポーネントと生のデータを最適に融合する方法を学習できるようになる。
実験の結果、RL3はデータ効率的な学習、長期的な性能向上、およびタスク外分布への一般化を実現できることが示された。特に、長期的な適応期間や複雑な依存関係を持つタスクにおいて、RL2に比べて大幅な性能向上が見られた。また、状態の抽象化を用いたRL3-coarseでも、計算コストを大幅に削減しつつ、ほぼ同等の性能を維持できることが分かった。
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Abhinav Bhat... lúc arxiv.org 03-27-2024
https://arxiv.org/pdf/2306.15909.pdfYêu cầu sâu hơn