Das Papier stellt ein neues Verfahren namens SGV3D vor, das darauf abzielt, die Szenariogeneralisierung für die auf Vision basierende 3D-Objekterkennung an Straßenrändern zu verbessern.
Zunächst wird ein Background-Suppressed Module (BSM) eingeführt, um das Überfitting auf Hintergründe in visionszentrierten Pipelines zu verringern, indem Hintergrundmerkmale während der 2D-zu-Vogelperspektive-Projektion abgeschwächt werden.
Darüber hinaus wird eine Semi-supervised Data Generation Pipeline (SSDG) implementiert, die unmarkierte Bilder aus neuen Szenen verwendet, um vielfältige Vordergrundobjekte mit unterschiedlichen Kameraausrichtungen zu generieren. Dies adressiert das Risiko des Überfittens auf bestimmte Kameraausrichtungen.
Die Leistung von SGV3D wird auf zwei großen Straßenrand-Benchmarks evaluiert. Auf dem DAIR-V2X-I-Benchmark übertrifft SGV3D alle bisherigen Methoden deutlich in neuen Szenarien, mit Verbesserungen von +42,57% für Fahrzeuge, +5,87% für Fußgänger und +14,89% für Radfahrer im Vergleich zu BEVHeight. Auf dem größeren Rope3D-Benchmark werden ebenfalls beträchtliche Leistungssteigerungen von 14,48% für Autos und 12,41% für große Fahrzeuge erzielt.
To Another Language
from source content
arxiv.org
Ключові висновки, отримані з
by Lei Yang,Xin... о arxiv.org 04-10-2024
https://arxiv.org/pdf/2401.16110.pdfГлибші Запити