核心概念
Selbst bei geringem Labelrauschen in den Trainingsdaten stellen bestehende Out-of-Distribution-Detektoren eine Herausforderung dar, da sie Fehler bei der Klassifikation nicht von tatsächlichen Out-of-Distribution-Samples unterscheiden können.
要約
Die Studie untersucht die Auswirkungen von Labelrauschen in den Trainingsdaten auf die Leistung von 20 State-of-the-Art-Methoden zur Erkennung von Out-of-Distribution-Samples. Die Experimente zeigen, dass selbst bei geringem Rauschen (9% falsche Labels) die Leistung der Detektoren deutlich abnimmt. Insbesondere haben die Methoden Schwierigkeiten, falsch klassifizierte In-Distribution-Samples von tatsächlichen Out-of-Distribution-Samples zu unterscheiden. Dieser Effekt ist bei synthetischem, gleichverteiltem Rauschen am stärksten ausgeprägt. Methoden, die auf Distanzmaßen in Merkmalsräumen basieren, schneiden im Vergleich besser ab als Ansätze, die sich auf Logits oder Wahrscheinlichkeiten stützen. Darüber hinaus zeigt sich, dass die Verwendung eines sauberen Validierungsdatensatzes für die Hyperparameteroptimierung nicht immer von Vorteil ist - in manchen Fällen liefert der verrauschte Trainingsdatensatz bessere Ergebnisse.
統計
Selbst bei nur 9% falsch annotierten Trainingsdaten sinkt die durchschnittliche AUROC-Leistung der Out-of-Distribution-Detektoren um über 5%.
Bei einem Rauschanteil von über 20% erreichen nur noch wenige Methoden eine AUROC über 80%.
Für die meisten Methoden ist die Verwendung eines frühen Modellcheckkpoints (basierend auf der besten Validierungsleistung) vorteilhafter als das Konvergieren auf dem Trainingsdatensatz.
引用
"Selbst bei geringem Rauschen (9% falsche Labels) die Leistung der Detektoren deutlich abnimmt."
"Insbesondere haben die Methoden Schwierigkeiten, falsch klassifizierte In-Distribution-Samples von tatsächlichen Out-of-Distribution-Samples zu unterscheiden."
"Methoden, die auf Distanzmaßen in Merkmalsräumen basieren, schneiden im Vergleich besser ab als Ansätze, die sich auf Logits oder Wahrscheinlichkeiten stützen."