Der Artikel befasst sich mit der Approximation von Nash-Gleichgewichten in Normalform-Spielen. Die Autoren stellen eine neue Verlustfunktion vor, die folgende Eigenschaften aufweist:
Diese Eigenschaften ermöglichen den Einsatz leistungsfähiger Optimierungsverfahren wie stochastischen Gradientenabstieg (SGD) und banditbasierte Ansätze zur effizienten Approximation von Nash-Gleichgewichten.
Die Autoren analysieren die Eigenschaften der Verlustfunktion, einschließlich ihrer Gradienten und Hessen, und leiten daraus Konvergenzgarantien für die vorgeschlagenen Algorithmen her. Sie vergleichen die empirische Leistung von SGD mit dem Stand der Technik und zeigen, dass SGD in einigen Fällen bessere Ergebnisse liefert.
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Ian Gemp,Luk... : arxiv.org 03-15-2024
https://arxiv.org/pdf/2310.06689.pdfDaha Derin Sorular