Der Artikel präsentiert einen neuen Lernalgorithmus namens HYPO (HYPerspherical OOD generalization), der darauf abzielt, domäneninvariante Darstellungen im hyperspärischen Raum zu lernen. Der Schlüsselgedanke ist es, die Variation innerhalb einer Klasse (über verschiedene Domänen hinweg) zu minimieren und die Trennung zwischen Klassen zu maximieren.
Konkret wird das Lernziel so formuliert, dass Samples aus derselben Klasse (über alle Trainingsdomänen hinweg) zu ihrem entsprechenden Klassenzentrum gravitieren, während die verschiedenen Klassenzentren maximal getrennt werden. Die beiden Verlustterme in der Zielfunktion können als Optimierung der Schlüsseleigenschaften der Variation innerhalb einer Klasse und der Trennung zwischen Klassen interpretiert werden.
Theoretisch zeigen wir, dass unser Verlustfunktion die Variation innerhalb einer Klasse effektiv reduziert, was wiederum die Generalisierung auf unbekannte Verteilungen verbessert. Empirisch demonstrieren wir starke Leistungen auf gängigen Benchmarks zur Domänen-Generalisierung, wie CIFAR-10-C, PACS, Office-Home und VLCS. Unsere Methode übertrifft dabei konkurrierende Ansätze deutlich.
Ke Bahasa Lain
dari konten sumber
arxiv.org
Wawasan Utama Disaring Dari
by Yifei Ming,H... pada arxiv.org 03-21-2024
https://arxiv.org/pdf/2402.07785.pdfPertanyaan yang Lebih Dalam