Unser Verfahren konstruiert effizient ID-ähnliche Ausreißer aus ID-Daten und lernt zusätzliche Prompts, um die herausforderndsten OOD-Samples zu identifizieren, ohne auf zusätzliche Ausreißerdaten angewiesen zu sein.
Durch den Einsatz verschiedener Trainingskriterien zur Bildung unterschiedlicher Modellverständnisse kann die Diversität der Merkmalsdarstellung in einem Ensemble-Modell erhöht werden, was zu einer verbesserten Erkennung von Daten außerhalb der Verteilung führt.
Hohe Wahrscheinlichkeitsdichten können mit vernachlässigbarer Wahrscheinlichkeitsmasse einhergehen, wenn die Daten außerhalb der Verteilung auf Mannigfaltigkeiten mit niedriger intrinsischer Dimension konzentriert sind.
Die Studie untersucht die theoretischen Bedingungen, unter denen die Erkennung von Daten außerhalb der Verteilung (Out-of-Distribution, OOD) lernbar ist. Die Autoren finden notwendige und hinreichende Bedingungen für die Lernbarkeit unter Risiko- und AUC-Metriken in verschiedenen praxisrelevanten Verteilungsräumen.