Die Kernaussage dieses Artikels ist, dass der Stochastische Extragradient mit zufälliger Neuanordnung (SEG-RR) im Vergleich zum klassischen SEG mit gleichverteilter Stichprobenentnahme (S-SEG) Konvergenzvorteile aufweist.
Für stark monotone und affine Variationsungleichungsprobleme zeigt der Artikel, dass SEG-RR nach einer bestimmten Anzahl von Epochen eine Iterationskomplexität von ˜O(1/nK^2) erreicht, was eine Verbesserung gegenüber dem ˜O(1/nK) von S-SEG darstellt.
Im monotonen Fall kann SEG-RR ohne große Batchgrößen eine beliebige Genauigkeit ϵ > 0 erreichen, was im Gegensatz zu S-SEG steht, das dafür große Batchgrößen benötigt.
Darüber hinaus werden Konvergenzgarantien für weitere Varianten ohne Zurücklegen, wie Shuffle Once SEG (SEG-SO) und Inkrementeller Extragradient (IEG), präsentiert. Außerdem wird eine neuartige Schrittweiten-Auswahlregel eingeführt, die einen Wechsel von konstanten zu abnehmenden Schrittweiten beschreibt.
Numerische Experimente auf stark monotonen quadratischen und bilinearen Minimax-Problemen sowie auf Wasserstein-GANs bestätigen die theoretischen Ergebnisse und zeigen, dass SEG-RR in der Praxis besser abschneidet als die Varianten mit gleichverteilter Stichprobenentnahme.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문