Core Concepts
Der vorgeschlagene DGC-GNN-Algorithmus nutzt eine globale-zu-lokale Graph-Neuronale-Netzwerk-Architektur, um geometrische und Farbhinweise effektiv für eine genaue beschreibungsfreie 2D-3D-Zuordnung zu verwenden.
Abstract
Der Artikel stellt einen neuen Algorithmus namens DGC-GNN vor, der für die Aufgabe der beschreibungsfreien 2D-3D-Zuordnung entwickelt wurde.
Zunächst werden die Eingabepunkte sowohl aus dem 2D-Bild als auch aus der 3D-Punktwolke mit separaten Encodern für Position und Farbe repräsentiert. Anschließend wird eine globale geometrische Einbettung extrahiert, indem die Punkte in Cluster gruppiert und die Beziehungen zwischen den Clusterzentren modelliert werden. Diese globale Einbettung wird dann mit den lokalen Punktmerkmalen kombiniert, um eine cluster-basierte Aufmerksamkeitsmodule anzuwenden und die endgültigen 2D-3D-Zuordnungen zu erhalten.
Der Algorithmus zeigt deutliche Verbesserungen gegenüber dem bisherigen Stand der Technik, indem er die Genauigkeit der 2D-3D-Zuordnung verdoppelt und gleichzeitig den Leistungsunterschied zwischen beschreibungsbasierten und beschreibungsfreien Methoden deutlich reduziert. Außerdem wird die Robustheit gegenüber Ausreißern und die Genauigkeit der visuellen Lokalisierung signifikant verbessert.
Stats
Die Reprojektions-AUC-Werte bei 1, 5 und 10 Pixeln auf dem MegaDepth-Datensatz betragen 15,30%, 51,70% und 60,01% für DGC-GNN, verglichen mit 8,90%, 35,67% und 44,99% für GoMatch.
Die Rotationsfehlerkwantile bei 25%, 50% und 75% auf MegaDepth betragen für DGC-GNN 0,07°, 0,26° und 5,41°, verglichen mit 0,18°, 1,29° und 16,65° für GoMatch.
Die Translationsfehlerkwantile bei 25%, 50% und 75% auf MegaDepth betragen für DGC-GNN 0,01 m, 0,02 m und 0,57 m, verglichen mit 0,02 m, 0,12 m und 1,92 m für GoMatch.
Quotes
Keine relevanten Zitate identifiziert.