Der Artikel untersucht die Effektivität von Maskierten Autoencodern (MAEs) für den sensor-agnostischen Bildabruf in der Fernerkundung. Dafür werden verschiedene Anpassungen der klassischen MAE-Architektur vorgestellt, um maskierte Bildmodellierung auf multi-sensorischen Fernerkundungsbildarchiven zu nutzen. Diese sogenannten Cross-Sensor Maskierten Autoencoder (CSMAEs) lernen Bilddarstellungen, die sowohl intra-modale als auch inter-modale Ähnlichkeiten erfassen.
Die Studie untersucht verschiedene CSMAE-Modelle, die sich in der Architektur des Encoders und Decoders, der Bildmaskierung und der Lernziele unterscheiden. Ausführliche Experimente zeigen, dass die CSMAE-Modelle in der Lage sind, sensor-agnostische Bilddarstellungen zu erlernen, die für uni-modalen und cross-modalen Bildabruf geeignet sind. Die Ergebnisse liefern Richtlinien zur Nutzung von MAEs für Fernerkundungsanwendungen.
Naar een andere taal
vanuit de broninhoud
arxiv.org
Belangrijkste Inzichten Gedestilleerd Uit
by Jako... om arxiv.org 04-12-2024
https://arxiv.org/pdf/2401.07782.pdfDiepere vragen