Core Concepts
Durch die Verwendung der Fr´
echet ResNet-Distanz (FRD) zur Bewertung von Stapeln und der Einführung einer Huber-Verlustfunktion zur Reduzierung des Einflusses falscher positiver und negativer Paare können robustere Darstellungen aus unmarkierten Daten gewonnen werden.
Abstract
Die Studie untersucht einen Ansatz zur Verbesserung des selbstüberwachten Lernens in der Bildklassifizierung. Der Hauptfokus liegt darauf, den Einfluss falscher positiver und negativer Paare in Stapeln zu reduzieren, die durch zufällige Datentransformationen entstehen können.
Zunächst wird ein Kriterium zur Bewertung von Stapeln anhand der Fr´
echet ResNet-Distanz (FRD) eingeführt. Stapel mit hoher FRD-Bewertung, die als "schlechte Stapel" mit vielen falschen positiven und negativen Paaren identifiziert werden, werden dann von der Aktualisierung der Gradienten ausgeschlossen.
Zusätzlich wird eine Huber-Verlustfunktion in die Kontrastivverlustfunktion integriert, um den Einfluss falscher positiver und negativer Paare weiter zu reduzieren. Die Huber-Verlustfunktion bestraft große Unterschiede zwischen positiven Paaren stärker, was zu robusteren Darstellungen führt.
Die Ergebnisse zeigen, dass der vorgeschlagene Ansatz mit kleineren Stapelgrößen und weniger Trainingsepochen im Vergleich zu bestehenden Methoden bessere Leistungen auf verschiedenen Datensätzen erzielt. Dies unterstreicht das Potenzial des Ansatzes, effizientere und generalisierbarere selbstüberwachte Modelle zu entwickeln.
Stats
Die Studie berichtet keine spezifischen Statistiken oder Kennzahlen.
Quotes
Keine relevanten Zitate identifiziert.