Der Artikel präsentiert einen neuen Lernalgorithmus namens HYPO (HYPerspherical OOD generalization), der darauf abzielt, domäneninvariante Darstellungen im hyperspärischen Raum zu lernen. Der Schlüsselgedanke ist es, die Variation innerhalb einer Klasse (über verschiedene Domänen hinweg) zu minimieren und die Trennung zwischen Klassen zu maximieren.
Konkret wird das Lernziel so formuliert, dass Samples aus derselben Klasse (über alle Trainingsdomänen hinweg) zu ihrem entsprechenden Klassenzentrum gravitieren, während die verschiedenen Klassenzentren maximal getrennt werden. Die beiden Verlustterme in der Zielfunktion können als Optimierung der Schlüsseleigenschaften der Variation innerhalb einer Klasse und der Trennung zwischen Klassen interpretiert werden.
Theoretisch zeigen wir, dass unser Verlustfunktion die Variation innerhalb einer Klasse effektiv reduziert, was wiederum die Generalisierung auf unbekannte Verteilungen verbessert. Empirisch demonstrieren wir starke Leistungen auf gängigen Benchmarks zur Domänen-Generalisierung, wie CIFAR-10-C, PACS, Office-Home und VLCS. Unsere Methode übertrifft dabei konkurrierende Ansätze deutlich.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Yifei Ming,H... lúc arxiv.org 03-21-2024
https://arxiv.org/pdf/2402.07785.pdfYêu cầu sâu hơn