Der Artikel präsentiert einen neuen Lernalgorithmus namens HYPO (HYPerspherical OOD generalization), der darauf abzielt, domäneninvariante Darstellungen im hyperspärischen Raum zu lernen. Der Schlüsselgedanke ist es, die Variation innerhalb einer Klasse (über verschiedene Domänen hinweg) zu minimieren und die Trennung zwischen Klassen zu maximieren.
Konkret wird das Lernziel so formuliert, dass Samples aus derselben Klasse (über alle Trainingsdomänen hinweg) zu ihrem entsprechenden Klassenzentrum gravitieren, während die verschiedenen Klassenzentren maximal getrennt werden. Die beiden Verlustterme in der Zielfunktion können als Optimierung der Schlüsseleigenschaften der Variation innerhalb einer Klasse und der Trennung zwischen Klassen interpretiert werden.
Theoretisch zeigen wir, dass unser Verlustfunktion die Variation innerhalb einer Klasse effektiv reduziert, was wiederum die Generalisierung auf unbekannte Verteilungen verbessert. Empirisch demonstrieren wir starke Leistungen auf gängigen Benchmarks zur Domänen-Generalisierung, wie CIFAR-10-C, PACS, Office-Home und VLCS. Unsere Methode übertrifft dabei konkurrierende Ansätze deutlich.
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Yifei Ming,H... às arxiv.org 03-21-2024
https://arxiv.org/pdf/2402.07785.pdfPerguntas Mais Profundas