Der Artikel untersucht das Paradoxon, dass tiefe generative Modelle (DGMs), die auf relativ komplexen Datensätzen trainiert wurden, höhere Wahrscheinlichkeitswerte für Daten außerhalb der Verteilung (OOD) aus einfacheren Quellen zuweisen. Obwohl diese DGMs höhere Wahrscheinlichkeiten für OOD-Daten aufweisen, generieren sie diese Daten nie.
Der Hauptbeobachtung zufolge werden Regionen mit hoher Wahrscheinlichkeitsdichte nicht generiert, wenn sie eine vernachlässigbare Wahrscheinlichkeitsmasse enthalten. Die Autoren zeigen, wie dieser scheinbare Widerspruch zwischen großen Dichten und niedriger Wahrscheinlichkeitsmasse um Daten auftreten kann, die auf niedrigdimensionalen Mannigfaltigkeiten konzentriert sind. Sie zeigen auch, dass dieses Szenario durch Schätzung der lokalen intrinsischen Dimension (LID) identifiziert werden kann, und schlagen eine Methode zur Erkennung von Daten außerhalb der Verteilung vor, die die Wahrscheinlichkeiten und LID-Schätzungen eines vortrainierten DGMs kombiniert.
Die Methode kann auf normalisierende Flüsse und diffusionsbasierte Modelle angewendet werden und erzielt Ergebnisse, die mit oder übertreffen den Stand der Technik bei der Erkennung von Daten außerhalb der Verteilung unter Verwendung derselben DGM-Rückgrate.
Egy másik nyelvre
a forrásanyagból
arxiv.org
Mélyebb kérdések