Der Artikel befasst sich mit der Approximation von Nash-Gleichgewichten in Normalform-Spielen. Die Autoren stellen eine neue Verlustfunktion vor, die folgende Eigenschaften aufweist:
Diese Eigenschaften ermöglichen den Einsatz leistungsfähiger Optimierungsverfahren wie stochastischen Gradientenabstieg (SGD) und banditbasierte Ansätze zur effizienten Approximation von Nash-Gleichgewichten.
Die Autoren analysieren die Eigenschaften der Verlustfunktion, einschließlich ihrer Gradienten und Hessen, und leiten daraus Konvergenzgarantien für die vorgeschlagenen Algorithmen her. Sie vergleichen die empirische Leistung von SGD mit dem Stand der Technik und zeigen, dass SGD in einigen Fällen bessere Ergebnisse liefert.
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Ian Gemp,Luk... a las arxiv.org 03-15-2024
https://arxiv.org/pdf/2310.06689.pdfConsultas más profundas