Core Concepts
Unser Ansatz ANEDL verwendet evidenzbasiertes tiefes Lernen (EDL) als Outlier-Detektor, um verschiedene Arten von Unsicherheit zu quantifizieren, und führt eine adaptive negative Optimierung ein, um die EDL-Erkennung auf den Datensatz mit Inliers und Outliers abzustimmen.
Abstract
Die Autoren stellen ein neuartiges Framework namens Adaptive Negative Evidential Deep Learning (ANEDL) für Open-Set Semi-Supervised Learning vor.
Kernpunkte:
- Einführung von evidenzbasiertem tiefem Lernen (EDL) als Outlier-Detektor, um verschiedene Arten von Unsicherheit zu quantifizieren. EDL ermöglicht die Entwicklung unterschiedlicher Unsicherheitsmetriken für Selbsttraining und Inferenz.
- Vorschlag einer neuartigen adaptiven negativen Optimierungsstrategie, um die EDL-Erkennung speziell auf den Datensatz mit Inliers und Outliers abzustimmen. Dies vermeidet die Übertragung falscher Labelinformationen auf Outliers während des Selbsttrainings.
- Empirische Evaluierung auf vier Datensätzen, die zeigt, dass der Ansatz die bestehenden State-of-the-Art-Methoden übertrifft.
Stats
Die Klassen-Evidenz eines Outlier-Samples sollte möglichst gering sein.
Für Inlier-Samples in den ungelabelten Daten sollte die Evidenz der korrekten Klasse hoch sein.
Quotes
"EDL kann explizit die Klassifikationsunsicherheit in Bezug auf die unbekannte Klasse quantifizieren, indem es das Netzwerkoutput als Evidenz zur Parametrisierung der Dirichlet-Verteilung gemäß der subjektiven Logik behandelt."
"Wir führen eine adaptive negative Optimierung ein, um die EDL-Erkennung speziell auf den Datensatz mit Inliers und Outliers abzustimmen."