Core Concepts
Durch die Zerlegung der gemeinsamen Verteilung in klassenspezifische Wasserstein-Unsicherheitsmengen und die Optimierung der Worst-Case-Leistung über diese Mengen kann ein robustes Klassifikationsmodell für unbekannte Zieldomänen gelernt werden.
Abstract
Die Studie befasst sich mit dem Problem der Domänengeneralisierung, bei dem ein universelles Modell gelernt werden soll, das auf unbekannten Zieldomänen gut funktioniert, indem Wissen aus mehreren Quelldomänen einbezogen wird.
Die Autoren betrachten das Szenario, in dem unterschiedliche Domänenverschiebungen zwischen den bedingten Verteilungen verschiedener Klassen über die Domänen hinweg auftreten. Bei begrenzten Trainingsdaten in den Quelldomänen sind bestehende Ansätze nicht ausreichend robust.
Um dieses Problem anzugehen, schlagen die Autoren einen neuartigen Ansatz zur Domänengeneralisierung namens Wasserstein-verteilungsrobuste Domänengeneralisierung (WDRDG) vor. Dabei werden die Domänenverschiebungen jeder Klasse in klassenspezifischen Wasserstein-Unsicherheitsmengen modelliert und die Worst-Case-Leistung eines Klassifikators über diese Mengen optimiert.
Außerdem entwickeln die Autoren ein Test-Zeit-Adaptionsmodul, das optimalen Transport nutzt, um die Beziehung zwischen der unbekannten Zieldomäne und den Quelldomänen zu quantifizieren und adaptive Inferenz für Zieldaten zu ermöglichen.
Experimente auf den Datensätzen Rotated MNIST, PACS und VLCS zeigen, dass der Ansatz Robustheit und Diskriminierbarkeit in herausfordernden Generalisierungsszenarien effektiv ausbalancieren kann.
Stats
Die maximale Wasserstein-Distanz zwischen den Wasserstein-Baryzentern und den empirischen klassenspezifischen Verteilungen in den Quelldomänen wird als Radius für die Unsicherheitsmengen verwendet.
Die Wasserstein-Distanz zwischen den Least Favorable Distributions (LFDs) verschiedener Klassen wird durch einen zusätzlichen Diskriminierbarkeitsparameter δ beschränkt, um die Unterscheidbarkeit der LFDs zu gewährleisten.
Quotes
"Durch die Zerlegung der gemeinsamen Verteilung in klassenspezifische Wasserstein-Unsicherheitsmengen und die Optimierung der Worst-Case-Leistung über diese Mengen kann ein robustes Klassifikationsmodell für unbekannte Zieldomänen gelernt werden."
"Experimente auf den Datensätzen Rotated MNIST, PACS und VLCS zeigen, dass der Ansatz Robustheit und Diskriminierbarkeit in herausfordernden Generalisierungsszenarien effektiv ausbalancieren kann."