Der Artikel präsentiert einen Bayesianischen Ansatz, um Bildklassifizierungsmodelle robuster gegenüber Verteilungsverschiebungen zwischen Trainings- und Testdaten (Out-of-Domain, OOD) zu machen.
Der Ansatz baut auf Compositional Neural Networks (CompNets) auf, die bereits robust gegenüber Verdeckungen sind, aber bei OOD-Daten schlechter abschneiden. Der Schlüssel ist, dass CompNets eine generative Komponente enthalten, die durch unüberwachtes Lernen von Merkmalsverteilungen (vMF-Verteilungen) robust gegenüber Verdeckungen wird.
Der vorgestellte Ansatz, Unsupervised Generative Transition (UGT), erweitert dies, indem er eine Übergangsverteilung der vMF-Merkmale lernt, die sowohl die Quell- als auch die Zieldomäne abdeckt. Dafür wird zunächst unüberwacht eine Übergangs-vMF-Verteilung gelernt, die Ähnlichkeiten zwischen den Domänen ausnutzt. Anschließend werden die räumlichen Beziehungen der vMF-Merkmale überwacht auf den Quelldaten gelernt und auf die Zieldomäne übertragen.
Dieser Ansatz zeigt starke Leistungen auf verschiedenen OOD-Benchmarks, einschließlich des herausfordernden OOD-CV-Datensatzes, sowie bei synthetischen Bildverzerrungen und dem Transfer von synthetischen zu realen Daten. Insbesondere übertrifft UGT bestehende Methoden deutlich, wenn zusätzlich Verdeckungen auftreten.
Ke Bahasa Lain
dari konten sumber
arxiv.org
Wawasan Utama Disaring Dari
by Prakhar Kaus... pada arxiv.org 03-13-2024
https://arxiv.org/pdf/2403.07277.pdfPertanyaan yang Lebih Dalam