Core Concepts
Durch die Kombination von Reinforcement Learning und Tensor-Netzwerken kann die Berechnung der Statistik seltener Ereignisse in komplexen stochastischen Vielteilchensystemen wie dem East-Modell und dem asymmetrischen Ausschlussprozess (ASEP) deutlich erweitert werden.
Abstract
Die Studie präsentiert einen allgemeinen Rahmen, um Tensor-Netzwerke (TN) in Reinforcement Learning (RL) über die sogenannte Akteur-Kritiker-Methode zu integrieren. Dieses "Akteur-Kritiker mit Tensor-Netzwerken" (ACTeN) Verfahren ist besonders gut geeignet für Probleme mit großen und faktorisierbaren Zustands- und Aktionsräumen.
Als Anwendungsbeispiel wird die Berechnung der Statistik seltener Trajektorien in zwei paradigmatischen stochastischen Modellen, dem East-Modell und dem asymmetrischen Ausschlussprozess (ASEP), betrachtet. Für das East-Modell, das detailliertes Gleichgewicht aufweist, stimmen die ACTeN-Ergebnisse mit der aktuellen Methode der Dichtematrix-Renormierungsgruppe (DMRG) überein. Für den ASEP, der kein detailliertes Gleichgewicht zeigt, können mit ACTeN Systemgrößen erreicht werden, die für exakte Methoden nicht mehr zugänglich sind. Die optimale Dynamik selbst, die von ACTeN gelernt wird, kann dann direkt verwendet werden, um seltene Ereignisse zu erzeugen und zu analysieren.
Insgesamt zeigt die Studie, dass der vorgestellte Rahmen vielversprechend ist, um RL-Methoden mit TN zu kombinieren und so komplexe Vielteilchenprobleme jenseits der Reichweite herkömmlicher Methoden zu lösen.
Stats
Die skalierte kumulierte Erzeugungsfunktion (SCGF) für die dynamische Aktivität im East-Modell beträgt für L = 50 Gitterpunkte und periodische Randbedingungen θ(λ) = -ln(a(λ)), wobei a(λ) = 4/(1+√(1+8e^(-2λ))).
Für den ASEP mit Teilchendichte 1/2 und Systemgrößen bis L = 50 zeigt die SCGF für den zeitintegrierten Teilchenstrom eine Abflachung, die auf einen Phasenübergang in den Fluktuationen hindeutet.
Quotes
"Durch die Kombination von Reinforcement Learning und Tensor-Netzwerken können wir die Berechnung seltener Ereignisse in komplexen stochastischen Vielteilchensystemen deutlich erweitern."
"Der vorgestellte Rahmen ist sehr vielversprechend, um Reinforcement Learning-Methoden mit Tensor-Netzwerken zu kombinieren und so komplexe Vielteilchenprobleme jenseits der Reichweite herkömmlicher Methoden zu lösen."