Der Artikel befasst sich mit der Approximation von Nash-Gleichgewichten in Normalform-Spielen. Die Autoren stellen eine neue Verlustfunktion vor, die folgende Eigenschaften aufweist:
Diese Eigenschaften ermöglichen den Einsatz leistungsfähiger Optimierungsverfahren wie stochastischen Gradientenabstieg (SGD) und banditbasierte Ansätze zur effizienten Approximation von Nash-Gleichgewichten.
Die Autoren analysieren die Eigenschaften der Verlustfunktion, einschließlich ihrer Gradienten und Hessen, und leiten daraus Konvergenzgarantien für die vorgeschlagenen Algorithmen her. Sie vergleichen die empirische Leistung von SGD mit dem Stand der Technik und zeigen, dass SGD in einigen Fällen bessere Ergebnisse liefert.
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Ian Gemp,Luk... klokken arxiv.org 03-15-2024
https://arxiv.org/pdf/2310.06689.pdfDypere Spørsmål