toplogo
سجل دخولك

Kontinuierliche Online-Hyperparameteroptimierung für verallgemeinerte lineare kontextuelle Bandits


المفاهيم الأساسية
In dieser Arbeit wird ein effizienter Rahmen namens Continuous Dynamic Tuning (CDT) vorgestellt, um die Hyperparameter von kontextuellen Bandit-Algorithmen in Echtzeit kontinuierlich zu optimieren, ohne eine vorgegebene Menge von Kandidaten zu benötigen. Der Schlüsselaspekt ist die Formulierung der Hyperparameteroptimierung als ein nicht-stationäres Lipschitz-Bandit-Problem auf einem kontinuierlichen Raum, für das ein neuer Zooming TS-Algorithmus mit Restarts entwickelt wird.
الملخص

Die Studie befasst sich mit dem Problem der effizienten Hyperparameteroptimierung für kontextuelle Bandit-Algorithmen. Bisherige Ansätze erfordern entweder eine vorgegebene Menge von Hyperparameter-Kandidaten oder können nur einen einzelnen Hyperparameter anpassen.

Um diese Einschränkungen zu überwinden, schlagen die Autoren einen neuartigen Rahmen namens Continuous Dynamic Tuning (CDT) vor. Dieser formuliert die Hyperparameteroptimierung als ein nicht-stationäres Lipschitz-Bandit-Problem auf einem kontinuierlichen Raum. Dafür entwickeln sie einen neuen Zooming TS-Algorithmus mit Restarts, der die Hyperparametersuche effizient gestaltet und an Umgebungsveränderungen anpasst.

Der CDT-Rahmen besteht aus zwei Ebenen: In der oberen Ebene wird der Zooming TS-Algorithmus verwendet, um die optimalen Hyperparameterwerte online zu finden. In der unteren Ebene läuft der eigentliche kontextuelle Bandit-Algorithmus mit den gewählten Hyperparametern. Die theoretische Analyse zeigt, dass CDT einen sublinearen Regret-Verlauf erreichen kann.

Experimente mit verschiedenen linearen und verallgemeinerten linearen Bandit-Algorithmen auf synthetischen und realen Datensätzen belegen die Überlegenheit von CDT gegenüber bisherigen Hyperparameteroptimierungsverfahren.

edit_icon

تخصيص الملخص

edit_icon

إعادة الكتابة بالذكاء الاصطناعي

edit_icon

إنشاء الاستشهادات

translate_icon

ترجمة المصدر

visual_icon

إنشاء خريطة ذهنية

visit_icon

زيارة المصدر

الإحصائيات
Die Belohnung eines Arms a zum Zeitpunkt t folgt einem verallgemeinerten linearen Modell mit unbekanntem Parameter θ*. Die Lipschitz-Konstante der erwarteten Belohnung in Bezug auf die Hyperparameter ist beschränkt. Die Umgebung ist piecewise-stationär, d.h. die erwartete Belohnung ändert sich nur zu bestimmten Zeitpunkten.
اقتباسات
"In stochastischen kontextuellen Bandits trifft ein Agent sequenziell Aktionen aus einer zeitabhängigen Aktionsmenge basierend auf bisherigen Erfahrungen, um die kumulierte Regret zu minimieren." "Wie viele andere Maschinenlernalgorithmen hängt die Leistung von Bandits stark von den Werten der Hyperparameter ab, und theoretisch hergeleitete Parameterwerte können in der Praxis zu unbefriedigenden Ergebnissen führen."

الرؤى الأساسية المستخلصة من

by Yue Kang,Cho... في arxiv.org 04-09-2024

https://arxiv.org/pdf/2302.09440.pdf
Online Continuous Hyperparameter Optimization for Generalized Linear  Contextual Bandits

استفسارات أعمق

Wie könnte der CDT-Rahmen erweitert werden, um auch andere Arten von Modellselektionsproblemen in kontextuellen Bandits zu adressieren?

Um den CDT-Rahmen zu erweitern und auch andere Arten von Modellselektionsproblemen in kontextuellen Bandits zu adressieren, könnten verschiedene Ansätze verfolgt werden. Eine Möglichkeit wäre die Integration von zusätzlichen Hyperparametern oder Modellvarianten in den CDT-Algorithmus. Dies würde es ermöglichen, nicht nur die Hyperparameter für einen bestimmten Algorithmus zu optimieren, sondern auch zwischen verschiedenen Algorithmen oder Modellkonfigurationen zu wählen. Ein weiterer Ansatz könnte darin bestehen, die Kontinuität des Hyperparameter-Raums zu erweitern, um auch diskrete Hyperparameterwerte zu berücksichtigen. Dies würde es ermöglichen, den CDT-Rahmen auf eine breitere Palette von Modellselektionsproblemen anzuwenden, bei denen diskrete Hyperparameter eine Rolle spielen. Zusätzlich könnte die Integration von Meta-Learning-Techniken in den CDT-Rahmen eine Möglichkeit sein, um das Modellselektionsproblem in kontextuellen Bandits zu verbessern. Durch die Verwendung von Meta-Learning könnte der CDT-Algorithmus schneller lernen und sich an verschiedene Modellkonfigurationen anpassen.

Wie könnte der CDT-Rahmen angepasst werden, um auch andere Arten von Nicht-Stationarität in kontextuellen Bandits zu berücksichtigen?

Um den CDT-Rahmen anzupassen, um auch andere Arten von Nicht-Stationarität in kontextuellen Bandits zu berücksichtigen, könnten verschiedene Maßnahmen ergriffen werden: Abrupte Änderungen in den Modellparametern: Der CDT-Algorithmus könnte so erweitert werden, dass er abrupte Änderungen in den Modellparametern erkennen und darauf reagieren kann. Dies könnte durch die Implementierung von Mechanismen erfolgen, die die Modellparameter regelmäßig überwachen und bei signifikanten Änderungen entsprechend anpassen. Periodische Neukalibrierung: Eine Möglichkeit wäre die Einführung einer periodischen Neukalibrierung des CDT-Algorithmus, um sicherzustellen, dass er sich an sich ändernde Umgebungen anpassen kann. Durch regelmäßige Neukalibrierung könnte der Algorithmus seine Leistungsfähigkeit in dynamischen Umgebungen verbessern. Adaptive Lernraten: Eine Anpassung der Lernraten des CDT-Algorithmus könnte ebenfalls dazu beitragen, verschiedene Arten von Nicht-Stationarität zu berücksichtigen. Durch die Verwendung adaptiver Lernraten könnte der Algorithmus flexibel auf sich ändernde Bedingungen reagieren und seine Leistung optimieren. Durch die Implementierung dieser Anpassungen könnte der CDT-Rahmen effektiv auf verschiedene Arten von Nicht-Stationarität in kontextuellen Bandits reagieren und seine Leistungsfähigkeit in dynamischen Umgebungen verbessern.
0
star