Der Artikel befasst sich mit der Approximation von Nash-Gleichgewichten in Normalform-Spielen. Die Autoren stellen eine neue Verlustfunktion vor, die folgende Eigenschaften aufweist:
Diese Eigenschaften ermöglichen den Einsatz leistungsfähiger Optimierungsverfahren wie stochastischen Gradientenabstieg (SGD) und banditbasierte Ansätze zur effizienten Approximation von Nash-Gleichgewichten.
Die Autoren analysieren die Eigenschaften der Verlustfunktion, einschließlich ihrer Gradienten und Hessen, und leiten daraus Konvergenzgarantien für die vorgeschlagenen Algorithmen her. Sie vergleichen die empirische Leistung von SGD mit dem Stand der Technik und zeigen, dass SGD in einigen Fällen bessere Ergebnisse liefert.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Ian Gemp,Luk... at arxiv.org 03-15-2024
https://arxiv.org/pdf/2310.06689.pdfDeeper Inquiries