Recurrent Action Transformer mit Speicher: Effiziente Verarbeitung von Sequenzen in Offline-Reinforcement-Learning-Aufgaben
Ein Transformermodell mit rekurrentem Speichermechanismus, das die Leistung in Offline-Reinforcement-Learning-Aufgaben mit Gedächtnisanforderungen signifikant verbessert, während es in klassischen Umgebungen vergleichbare oder bessere Ergebnisse erzielt.