Grunnleggende konsepter
Einführung einer Gedächtnis-basierten Transformator-Architektur für kontinuierliche Objekterkennung, die das Vergessen von Informationen aus früheren Aufgaben effektiv verhindert.
Sammendrag
In dieser Arbeit wird eine neuartige Gedächtnis-basierte Transformator-Architektur, MD-DETR, für kontinuierliche Objekterkennung vorgestellt. MD-DETR nutzt ein integriertes Gedächtnis, um ein vortrainiertes Deformable-DETR-Modell an neue Aufgaben anzupassen, während gleichzeitig Wissen aus früheren Aufgaben erhalten bleibt.
Kernpunkte:
- Einführung eines lokalisierten Abfrage-Mechanismus für effizientes Abrufen von Informationen aus dem Gedächtnis, um Vergessen zu minimieren.
- Identifizierung der Herausforderung der "Hintergrund-Relegation" in kontinuierlicher Objekterkennung und Einführung von Optimierungstechniken zur effektiven Bewältigung dieses Problems.
- Umfassende Evaluierung auf MS-COCO und PASCAL-VOC, die zeigt, dass MD-DETR den Stand der Technik um 5-7% übertrifft und eine neue Benchmark für kontinuierliche Objekterkennung setzt.
Statistikk
Die Leistung von MD-DETR übertrifft die bestehenden Methoden zur kontinuierlichen Objekterkennung um etwa 5-7% auf den MS-COCO- und PASCAL-VOC-Datensätzen.
Sitater
"Moderne vortrainierte Architekturen haben Schwierigkeiten, frühere Informationen beizubehalten, während sie kontinuierlich an neuen Aufgaben feinabgestimmt werden."
"Ein fundamentales Problem in kontinuierlicher Objekterkennung ist die Hintergrund-Relegation, bei der Objektkategorien aus früheren Aufgaben in zukünftigen Aufgaben implizit als Hintergrund behandelt werden."