Der Artikel untersucht die Effektivität von Maskierten Autoencodern (MAEs) für den sensor-agnostischen Bildabruf in der Fernerkundung. Dafür werden verschiedene Anpassungen der klassischen MAE-Architektur vorgestellt, um maskierte Bildmodellierung auf multi-sensorischen Fernerkundungsbildarchiven zu nutzen. Diese sogenannten Cross-Sensor Maskierten Autoencoder (CSMAEs) lernen Bilddarstellungen, die sowohl intra-modale als auch inter-modale Ähnlichkeiten erfassen.
Die Studie untersucht verschiedene CSMAE-Modelle, die sich in der Architektur des Encoders und Decoders, der Bildmaskierung und der Lernziele unterscheiden. Ausführliche Experimente zeigen, dass die CSMAE-Modelle in der Lage sind, sensor-agnostische Bilddarstellungen zu erlernen, die für uni-modalen und cross-modalen Bildabruf geeignet sind. Die Ergebnisse liefern Richtlinien zur Nutzung von MAEs für Fernerkundungsanwendungen.
To Another Language
from source content
arxiv.org
Deeper Inquiries