Concepts de base
Eine effektive probabilistische Modellensemble-Methode basierend auf Gaußprozessen, die Wissen aus verschiedenen vortrainierten Modellen integriert, um die Leistung bei der Bildklassifizierung mit wenigen Beispielen zu verbessern.
Résumé
Die Studie präsentiert eine Bayessche Methode zur Nutzung von Vortrainierten Modellen für die Bildklassifizierung mit wenigen Beispielen. Kernpunkte sind:
- Verwendung eines Gaußprozess-Regressors als Modell, um Flexibilität und Unsicherheitsschätzung zu ermöglichen
- Integration von Wissen aus verschiedenen vortrainierten Modellen durch Spezifikation der Kernelfunktion als Ensemble von Tiefenkerneln
- Verwendung des Zero-Shot-CLIP-Klassifikators als informative Priori-Mittelwertfunktion
- Empirische Evaluation auf gängigen Benchmarks, die Überlegenheit gegenüber Ensemble-Basislinien zeigt
- Robustheit und Kalibrierung des Modells werden anhand von Out-of-Distribution-Daten untersucht
Insgesamt demonstriert die Studie die Leistungsfähigkeit Bayesscher Methoden im Zeitalter großer Modelle und ebnet den Weg für zukünftige Verbesserungen im Bereich des Lernens mit wenigen Beispielen.
Stats
Die Autoren verwenden verschiedene Metriken, um die Leistung ihres Modells zu evaluieren, darunter:
Klassifikationsgenauigkeit auf Standardbenchmarks für das Lernen mit wenigen Beispielen
Robustheit gegenüber Out-of-Distribution-Daten, gemessen an der Klassifikationsgenauigkeit
Qualität der Unsicherheitsschätzungen, gemessen an der Fähigkeit, Out-of-Distribution-Daten zu identifizieren
Kalibrierung des Modells, gemessen an Metriken wie der Expected Calibration Error (ECE) und der Thresholded Adaptive Calibration Error (TACE)
Citations
Keine relevanten wörtlichen Zitate identifiziert.