Core Concepts
Flexible Verteilungsanpassung (FlexDA) ist ein neuartiger adaptiver Logit-angepasster Verlustrahmen, der darauf abzielt, Vorhersagen dynamisch an die tatsächliche Verteilung unmarkierter Daten anzupassen und einen ausgewogenen Klassifikator am Ende des Trainings zu erreichen. FlexDA wird durch einen destillationsbasierten Konsistenzverlustverstärkt, der eine faire Datennutzung über Klassen hinweg fördert und unterkonfidente Proben effektiv nutzt.
Abstract
Die Studie befasst sich mit dem Problem des langgeschwänzten semi-supervidierten Lernens (LTSSL), bei dem die Verteilung der markierten Klassen stark schief ist und sich von der unbekannten Verteilung der unmarkierten Daten unterscheidet. Dies kann zu verzerrten Pseudo-Etiketten, Vernachlässigung seltener Klassen und schlecht kalibrierte Wahrscheinlichkeiten führen.
Um diese Probleme anzugehen, führen die Autoren Flexible Verteilungsanpassung (FlexDA) ein. FlexDA verwendet einen adaptiven Logit-angepassten Verlust, um die Vorhersagen dynamisch an die tatsächliche Verteilung der unmarkierten Daten anzupassen und einen ausgewogenen Klassifikator am Ende des Trainings zu erreichen. Dieser Ansatz wird durch einen destillationsbasierten Konsistenzverlustverstärkt, der eine faire Datennutzung über Klassen hinweg fördert und unterkonfidente Proben effektiv nutzt.
Die Autoren zeigen, dass ihr Ansatz, eingebettet in ADELLO (Align and Distill Everything All at Once), robust gegen Etikettenverschiebung ist, die Modellkalibrierung in LTSSL-Kontexten deutlich verbessert und die bisherigen State-of-the-Art-Ansätze in mehreren Benchmarks übertrifft, darunter CIFAR100-LT, STL10-LT und ImageNet127.
Stats
Die Anzahl der Bilder pro Klasse für markierte und unmarkierte Daten wird durch Nk = N1 · γ−κ
l und Mk = M1 · γ−κ
u bestimmt, wobei κ = (k − 1)/(K − 1) ist.
Der Ungleichgewichtsgrad für den markierten Datensatz ist γl = N1/NK, und für den unmarkierten Datensatz ist γu = M1/MK.
Quotes
"Flexible Verteilungsanpassung (FlexDA) ist ein neuartiger adaptiver Logit-angepasster Verlustrahmen, der darauf abzielt, Vorhersagen dynamisch an die tatsächliche Verteilung unmarkierter Daten anzupassen und einen ausgewogenen Klassifikator am Ende des Trainings zu erreichen."
"FlexDA wird durch einen destillationsbasierten Konsistenzverlustverstärkt, der eine faire Datennutzung über Klassen hinweg fördert und unterkonfidente Proben effektiv nutzt."