Core Concepts
Effiziente Anomalieerkennung durch In-Context Residual Learning mit Wenig-Schuss-Stichproben ermöglicht eine generalistische Anwendung auf verschiedene Datensätze.
Abstract
Das Papier untersucht das Problem der Generalistischen Anomalieerkennung (GAD).
Es wird ein neuer Ansatz vorgestellt, der ein in-Context Residual Learning Modell für GAD, genannt InCTRL, einführt.
InCTRL übertrifft signifikant andere Methoden auf neun AD-Datensätzen.
Experimente zeigen, dass InCTRL auf Industrie-, medizinischen und semantischen Anomalien am besten abschneidet.
Die Methode nutzt wenige normale Bilder als Stichproben für die Anomalieerkennung.
Stats
Einige aktuelle Studien haben gezeigt, dass große vortrainierte Visual-Language-Modelle wie CLIP starke Verallgemeinerungsfähigkeiten bei der Erkennung von industriellen Defekten aus verschiedenen Datensätzen haben.
InCTRL übertrifft signifikant andere Methoden auf neun AD-Datensätzen.
Quotes
"InCTRL ist der beste Performer und übertrifft signifikant die state-of-the-art konkurrierenden Methoden."
"InCTRL nutzt wenige normale Bilder als Stichproben für die Anomalieerkennung."