Core Concepts
Rauschen in Pre-Training-Datensätzen kann die Leistung auf ID-Aufgaben verbessern, aber die Robustheit auf OOD-Aufgaben beeinträchtigen.
Abstract
Das Papier untersucht die Auswirkungen von Rauschen in Pre-Training-Datensätzen auf nachgelagerte Aufgaben. Es zeigt, dass leichtes Rauschen die Leistung auf Aufgaben mit ähnlicher Verteilung verbessern kann, aber die Übertragbarkeit auf Aufgaben mit unterschiedlichen Verteilungen beeinträchtigt. Untersuchungen umfassen Experimente mit ResNet-50 und ViT-B-16, sowohl vollständig überwacht als auch kontrastiv vortrainiert. Es wird eine Methode zur Affinierung des Merkmalsraums vorgeschlagen, um die Auswirkungen des Rauschens zu mildern.
Einführung in Foundation-Modelle und Pre-Training
Auswirkungen von Rauschen auf ID- und OOD-Leistung
Analyse des Merkmalsraums und Vorschlag zur Affinierung
Experimente mit verschiedenen Modellen und Tuning-Methoden
Bedeutung der Forschungsrichtung "Noisy Model Learning"
Stats
Die Modelle wurden für 600 bzw. 300 Epochen trainiert.
Die Lernrate betrug 5e-3 für ResNet-50 und 5e-4 für ViT-B-16.
Es wurden Experimente mit 0%, 5%, 10%, 20% und 30% Rauschen durchgeführt.
Quotes
"Rauschen in Pre-Training-Datensätzen kann die Leistung auf ID-Aufgaben verbessern, aber die Robustheit auf OOD-Aufgaben beeinträchtigen."