Core Concepts
Eine neuartige Regularisierungstechnik, die Modellverschiebungen zwischen Quell- und Zieltasks erfasst und gleichzeitig robust gegenüber Kovariatenverschiebungen ist, ermöglicht eine effiziente Übertragung von Wissen aus Quelltasks in die Zielaufgabe.
Abstract
Die Hauptherausforderung beim Übertragungslernen im Vergleich zum traditionellen überwachten Lernen ist die Verteilungsverschiebung, die sich in der Verschiebung zwischen den Quell- und Zielmodellen sowie in der Verschiebung der marginalen Kovariatenverteilungen widerspiegelt.
In dieser Arbeit wird ein zweistufiges Verfahren namens TransFusion vorgestellt, das diese Herausforderungen in hochdimensionalen Regressionsszenarien adressiert. In der ersten Stufe wird ein neuartiger fusions-regularisierter Schätzer eingeführt, der die Modellverschiebungen zwischen Quell- und Zieltasks effektiv erfasst und gleichzeitig robust gegenüber Kovariatenverschiebungen ist. Die theoretischen Ergebnisse zeigen, dass dieser Schätzer unter bestimmten Bedingungen eine schnelle Konvergenzrate erreicht, die deutlich besser ist als ohne Übertragungslernen. Für Fälle, in denen diese Bedingungen nicht erfüllt sind, wird in der zweiten Stufe eine Nachkorrektur auf den Zieldaten durchgeführt, um die Schätzgenauigkeit weiter zu verbessern.
Darüber hinaus wird eine effiziente verteilte Variante des Verfahrens, D-TransFusion, entwickelt, die nur eine einmalige Kommunikation der vortrainierten lokalen Modelle von den Quelltask-Knoten zum Zieltask-Knoten erfordert, den Kommunikationsaufwand also erheblich reduziert. Gleichzeitig behält D-TransFusion die optimale statistische Genauigkeit der zentralisierten Version bei.
Die theoretischen Ergebnisse werden durch umfangreiche Simulationen und reale Anwendungen validiert, die die Robustheit des TransFusion-Verfahrens gegenüber Kovariatenverschiebungen und seine Überlegenheit gegenüber bestehenden Methoden belegen.
Stats
Die Zielstichprobengröße beträgt nT.
Die Quelldatenstichprobengröße beträgt nS.
Die Anzahl der Quelltasks beträgt K.
Der Sparsitätsgrad des Zielmodells beträgt s.
Quotes
"Die Hauptherausforderung, die das Übertragungslernen vom traditionellen überwachten Lernen unterscheidet, ist die Verteilungsverschiebung, die sich in der Verschiebung zwischen den Quell- und Zielmodellen und in der Verschiebung der marginalen Kovariatenverteilungen widerspiegelt."
"Unser theoretisches Ergebnis zeigt weiter, dass dieser Regularisierer die Modellverschiebungen auf robuste Weise von gemeinsamen Mustern trennen kann."