Ein geometrie-bewusster Aufmerksamkeitsmechanismus für Multi-View-Transformers
Wir stellen einen geometrie-bewussten Aufmerksamkeitsmechanismus vor, der die geometrische Struktur von Tokens direkt in den Transformer-Aufmerksamkeitsmechanismus integriert. Dieser Mechanismus verbessert die Lerneffizienz und Leistung von state-of-the-art Transformer-basierten Modellen für Neuansicht-Synthese-Aufgaben.