Core Concepts
Wir präsentieren einen Rahmen zum Lernen von Optimierungsalgorithmen mit beweisbaren Generalisierungsgarantien (PAC-Bayes-Schranken) und einem expliziten Kompromiss zwischen Konvergenzgarantien und Konvergenzgeschwindigkeit, im Gegensatz zur typischen Worst-Case-Analyse.
Abstract
Der Artikel befasst sich mit dem Lernen von Optimierungsalgorithmen mit beweisbaren Generalisierungsgarantien.
Zunächst wird ein allgemeiner PAC-Bayes-Satz für datenabhängige exponentielle Familien bewiesen, der als Grundlage für die Generalisierungsgarantien der gelernten Optimierungsalgorithmen dient. Dieser Satz zeigt, dass der erwartete Verlust des letzten Iterats durch den empirischen Verlust plus einem Restterm, der mit der Datenmenge verschwindet, beschränkt werden kann.
Anschließend werden Eigenschaften von Optimierungsalgorithmen identifiziert, die die notwendigen Annahmen für den PAC-Bayes-Satz erfüllen. Dabei wird ein Kompromiss zwischen Konvergenzgarantien und Konvergenzgeschwindigkeit deutlich. Um diesen Kompromiss aufzulösen, wird eine konkrete algorithmische Umsetzung entwickelt, die es erlaubt, Optimierungsalgorithmen zu lernen, deren Leistung die von Standard-Algorithmen aus der Worst-Case-Analyse deutlich übertrifft. Dies wird anhand von vier praktisch relevanten Experimenten demonstriert.
Stats
Die Verlustfunktion ℓ(α, S) ist PS-fast sicher durch Cρ(α)ℓ(x(0), S) beschränkt, wobei C ≥ 0 und ρ : H → [0, ∞) messbar sind.
Es gilt E[ℓ(x(0), S)^2] < ∞.
Quotes
Keine relevanten Zitate gefunden.