Der Artikel befasst sich mit der Approximation von Nash-Gleichgewichten in Normalform-Spielen. Die Autoren stellen eine neue Verlustfunktion vor, die folgende Eigenschaften aufweist:
Diese Eigenschaften ermöglichen den Einsatz leistungsfähiger Optimierungsverfahren wie stochastischen Gradientenabstieg (SGD) und banditbasierte Ansätze zur effizienten Approximation von Nash-Gleichgewichten.
Die Autoren analysieren die Eigenschaften der Verlustfunktion, einschließlich ihrer Gradienten und Hessen, und leiten daraus Konvergenzgarantien für die vorgeschlagenen Algorithmen her. Sie vergleichen die empirische Leistung von SGD mit dem Stand der Technik und zeigen, dass SGD in einigen Fällen bessere Ergebnisse liefert.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Ian Gemp,Luk... lúc arxiv.org 03-15-2024
https://arxiv.org/pdf/2310.06689.pdfYêu cầu sâu hơn