Die Studie untersucht die Auswirkungen von Labelrauschen in den Trainingsdaten auf die Leistung von 20 State-of-the-Art-Methoden zur Erkennung von Out-of-Distribution-Samples. Die Experimente zeigen, dass selbst bei geringem Rauschen (9% falsche Labels) die Leistung der Detektoren deutlich abnimmt. Insbesondere haben die Methoden Schwierigkeiten, falsch klassifizierte In-Distribution-Samples von tatsächlichen Out-of-Distribution-Samples zu unterscheiden. Dieser Effekt ist bei synthetischem, gleichverteiltem Rauschen am stärksten ausgeprägt. Methoden, die auf Distanzmaßen in Merkmalsräumen basieren, schneiden im Vergleich besser ab als Ansätze, die sich auf Logits oder Wahrscheinlichkeiten stützen. Darüber hinaus zeigt sich, dass die Verwendung eines sauberen Validierungsdatensatzes für die Hyperparameteroptimierung nicht immer von Vorteil ist - in manchen Fällen liefert der verrauschte Trainingsdatensatz bessere Ergebnisse.
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Galadrielle ... klokken arxiv.org 04-03-2024
https://arxiv.org/pdf/2404.01775.pdfDypere Spørsmål