Kernkonzepte
Unüberwachtes Pretraining beeinflusst die Verallgemeinerung von Modellen.
Zusammenfassung
Das Papier untersucht die Auswirkungen von unüberwachtem Pretraining auf die Verallgemeinerung von Modellen. Es stellt fest, dass die Verallgemeinerung von der Übertragbarkeit der Repräsentation, der durch die Repräsentation induzierten Rademacher-Komplexität, der Aufgabenheterogenität und der Verallgemeinerung der Pretraining-Aufgabe abhängt. Zwei Szenarien, Context Encoder und Masked Autoencoder Pretraining, werden analysiert. Eine neue Rademacher-Repräsentationsregularisierung wird vorgeschlagen und experimentell validiert.
Inhaltsverzeichnis
Einführung
Theoretischer Hintergrund
Formales Framework
Experimente und Ergebnisse
Schlussfolgerung
Statistiken
"Unüberwachtes Pretraining kann die Verallgemeinerung von Modellen beeinflussen."
"Die Verallgemeinerung hängt von der Übertragbarkeit der Repräsentation ab."
"Die Rademacher-Komplexität beeinflusst die Verallgemeinerung."
Zitate
"Unüberwachtes Pretraining beeinflusst die Verallgemeinerung von Modellen."
"Die Verallgemeinerung hängt von der Übertragbarkeit der Repräsentation ab."