In dieser Arbeit wird ein neuartiger Ansatz zum Lernen von Optimierung vorgestellt, bei dem der zugrunde liegende Metrikraum eines Proximal-Operator-Splitting-Algorithmus so gelernt wird, dass seine Konvergenzrate maximiert wird.
Während frühere Arbeiten in der Optimierungstheorie für begrenzte Problemklassen optimale Metriken abgeleitet haben, lassen sich diese Ergebnisse nicht auf viele praktische Problemformen wie das Allgemeine Quadratische Programmieren (QP) übertragen. Diese Arbeit zeigt, wie differenzierbare Optimierung das End-zu-End-Lernen von Proximal-Metriken ermöglichen kann, um die Konvergenz von Proximal-Algorithmen für QP-Probleme über das hinaus zu verbessern, was auf der Grundlage der bekannten Theorie möglich ist.
Die Ergebnisse zeigen auch einen starken Zusammenhang zwischen den gelernten Proximal-Metriken und den aktiven Nebenbedingungen bei den Optima, was zu einer Interpretation führt, bei der das Lernen von Proximal-Metriken als eine Form des Active-Set-Lernens angesehen werden kann. Die vorgeschlagene Integration von Optimierung und Lernen zeigt sowohl in Bezug auf Genauigkeit als auch Effizienz Vorteile gegenüber theoretischen Ansätzen zur Metrik-Auswahl in der Proximal-Optimierung.
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Ethan King,J... ב- arxiv.org 04-02-2024
https://arxiv.org/pdf/2404.00882.pdfשאלות מעמיקות