Keskeiset käsitteet
Neue Konfidenzintervalle für sequenzielle Kernel-Regression, die immer enger sind als bestehende Intervalle.
Tiivistelmä
Der Artikel präsentiert neue Konfidenzintervalle für die sequenzielle Kernel-Regression, die immer enger sind als bestehende Intervalle. Die Hauptergebnisse sind:
Verwendung von Martingal-Ungleichungen und endlich-dimensionalen Umformulierungen unendlich-dimensionaler konvexer Programme, um neue Konfidenzintervalle herzuleiten.
Beweis, dass die neuen Konfidenzintervalle immer enger sind als bestehende Intervalle im gleichen Kontext.
Anwendung der neuen Konfidenzintervalle auf das Kernel-Bandit-Problem, wo zukünftige Aktionen von der vorherigen Historie abhängen. Der KernelUCB-Algorithmus (GP-UCB) zeigt mit den neuen Intervallen bessere empirische Leistung, eine passende Worst-Case-Garantie und vergleichbare Rechenkosten.
Die neuen Konfidenzintervalle können als generisches Werkzeug verwendet werden, um verbesserte Algorithmen für andere kernelbasierte Lern- und Entscheidungsprobleme zu entwickeln.
Tilastot
"∥f ∗
t − yt∥2
2 ≤ y⊤
t (I + cKt/σ2)−1yt + σ2 ln det(I + cKt/σ2) + 2σ2 ln(1/δ)"
"∥(V t + αIH)1/2(f − µα,t)∥H ≤ eRα,t"
Lainaukset
"Tighter confidence bounds give rise to algorithms with better empirical performance and better performance guarantees."
"Our new confidence bounds can be used as a generic tool to design improved algorithms for other kernelised learning and decision-making problems."