Der Artikel präsentiert einen Bayesianischen Ansatz, um Bildklassifizierungsmodelle robuster gegenüber Verteilungsverschiebungen zwischen Trainings- und Testdaten (Out-of-Domain, OOD) zu machen.
Der Ansatz baut auf Compositional Neural Networks (CompNets) auf, die bereits robust gegenüber Verdeckungen sind, aber bei OOD-Daten schlechter abschneiden. Der Schlüssel ist, dass CompNets eine generative Komponente enthalten, die durch unüberwachtes Lernen von Merkmalsverteilungen (vMF-Verteilungen) robust gegenüber Verdeckungen wird.
Der vorgestellte Ansatz, Unsupervised Generative Transition (UGT), erweitert dies, indem er eine Übergangsverteilung der vMF-Merkmale lernt, die sowohl die Quell- als auch die Zieldomäne abdeckt. Dafür wird zunächst unüberwacht eine Übergangs-vMF-Verteilung gelernt, die Ähnlichkeiten zwischen den Domänen ausnutzt. Anschließend werden die räumlichen Beziehungen der vMF-Merkmale überwacht auf den Quelldaten gelernt und auf die Zieldomäne übertragen.
Dieser Ansatz zeigt starke Leistungen auf verschiedenen OOD-Benchmarks, einschließlich des herausfordernden OOD-CV-Datensatzes, sowie bei synthetischen Bildverzerrungen und dem Transfer von synthetischen zu realen Daten. Insbesondere übertrifft UGT bestehende Methoden deutlich, wenn zusätzlich Verdeckungen auftreten.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Prakhar Kaus... at arxiv.org 03-13-2024
https://arxiv.org/pdf/2403.07277.pdfDeeper Inquiries