Der Artikel präsentiert einen Bayesianischen Ansatz, um Bildklassifizierungsmodelle robuster gegenüber Verteilungsverschiebungen zwischen Trainings- und Testdaten (Out-of-Domain, OOD) zu machen.
Der Ansatz baut auf Compositional Neural Networks (CompNets) auf, die bereits robust gegenüber Verdeckungen sind, aber bei OOD-Daten schlechter abschneiden. Der Schlüssel ist, dass CompNets eine generative Komponente enthalten, die durch unüberwachtes Lernen von Merkmalsverteilungen (vMF-Verteilungen) robust gegenüber Verdeckungen wird.
Der vorgestellte Ansatz, Unsupervised Generative Transition (UGT), erweitert dies, indem er eine Übergangsverteilung der vMF-Merkmale lernt, die sowohl die Quell- als auch die Zieldomäne abdeckt. Dafür wird zunächst unüberwacht eine Übergangs-vMF-Verteilung gelernt, die Ähnlichkeiten zwischen den Domänen ausnutzt. Anschließend werden die räumlichen Beziehungen der vMF-Merkmale überwacht auf den Quelldaten gelernt und auf die Zieldomäne übertragen.
Dieser Ansatz zeigt starke Leistungen auf verschiedenen OOD-Benchmarks, einschließlich des herausfordernden OOD-CV-Datensatzes, sowie bei synthetischen Bildverzerrungen und dem Transfer von synthetischen zu realen Daten. Insbesondere übertrifft UGT bestehende Methoden deutlich, wenn zusätzlich Verdeckungen auftreten.
翻譯成其他語言
從原文內容
arxiv.org
深入探究