Core Concepts
Dieser Artikel entwickelt einen stochastischen Algorithmus und seine Leistungsanalyse für nicht-konvexe beschränkte verteilungsrobuste Optimierung. Der Rechenaufwand pro Iteration ist unabhängig von der Gesamtgröße des Datensatzes und eignet sich daher für Anwendungen in großem Maßstab.
Abstract
Der Artikel befasst sich mit dem Problem der verteilungsrobusten Optimierung (DRO), bei dem das erwartete Verlustrisiko unter der schlimmstmöglichen Verteilung in einer Unsicherheitsmenge minimiert wird. Der Fokus liegt auf beschränkter DRO mit nicht-konvexen Verlustfunktionen, z.B. neuronale Netze, was eine praktische und herausfordernde Situation darstellt.
Der Artikel entwickelt einen stochastischen Algorithmus, der eine ϵ-stationäre Lösung mit einer Rechenzeit von O(ϵ^-3 k^^-5) findet, wobei k^ der Parameter der Cressie-Read-Divergenz ist. Die Rechenzeit pro Iteration ist unabhängig von der Größe des Trainingsdatensatzes, was den Algorithmus für große Anwendungen geeignet macht.
Darüber hinaus wird gezeigt, dass der Algorithmus auch auf das geglättete bedingte Erwartungswertrisiko (CVaR) DRO-Problem angewendet werden kann.
Die numerischen Ergebnisse zeigen, dass der vorgeschlagene Algorithmus bestehende Methoden übertrifft.
Stats
Die Verlustfunktion ist beschränkt auf 0 ≤ ℓ(x; s) ≤ B für ein B > 0 und ist G-Lipschitz-stetig und L-glatt.
Quotes
Keine relevanten Zitate identifiziert.