Die Studie untersucht die Herausforderungen der visuellen Erkennung für autonomes Fahren in realen Degradationsumgebungen wie Nebel, Dunkelheit und Bewegungsunschärfe. Es wird beobachtet, dass Degradationseinflüsse zu Informationsverlust und Artefakteinführung in den Featuredarstellungen führen, was die Leistung von Vortrainingsmodellen beeinträchtigt.
Um dies zu lösen, wird ein neuartiger Deep Channel Prior (DCP) vorgeschlagen. DCP nutzt die Beobachtung, dass die Kanalkorrelationen der degradierten Features mit demselben Degradationstyp eine einheitliche Verteilung aufweisen, auch wenn sie unterschiedliche Inhalte und Semantik haben. Dies ermöglicht es, die Beziehung zwischen degradierten und klaren Features effektiv zu lernen, ohne auf überwachte Daten angewiesen zu sein.
Basierend auf DCP wird ein zweistufiges unüberwachtes Feature-Verbesserungsmodul (UFEM) entwickelt. In der ersten Stufe wird ein duales Lernarchitektur-Design mit einem Multi-Adversarial-Mechanismus eingeführt, um den latenten Inhalt wiederherzustellen und zusätzliche Artefakte zu entfernen. In der zweiten Stufe wird die globale Kanalkorrelation moduliert, um hochwertige und erkennungsfreundliche Features zu erhalten.
Umfangreiche Evaluierungen auf acht Benchmark-Datensätzen für degradierte Bildklassifizierung, Objekterkennung und Segmentierung zeigen, dass die vorgeschlagene Methode die Leistung von Vortrainingsmodellen in realen Degradationsumgebungen umfassend verbessern kann.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문