Der Artikel untersucht die Effektivität von Maskierten Autoencodern (MAEs) für den sensor-agnostischen Bildabruf in der Fernerkundung. Dafür werden verschiedene Anpassungen der klassischen MAE-Architektur vorgestellt, um maskierte Bildmodellierung auf multi-sensorischen Fernerkundungsbildarchiven zu nutzen. Diese sogenannten Cross-Sensor Maskierten Autoencoder (CSMAEs) lernen Bilddarstellungen, die sowohl intra-modale als auch inter-modale Ähnlichkeiten erfassen.
Die Studie untersucht verschiedene CSMAE-Modelle, die sich in der Architektur des Encoders und Decoders, der Bildmaskierung und der Lernziele unterscheiden. Ausführliche Experimente zeigen, dass die CSMAE-Modelle in der Lage sind, sensor-agnostische Bilddarstellungen zu erlernen, die für uni-modalen und cross-modalen Bildabruf geeignet sind. Die Ergebnisse liefern Richtlinien zur Nutzung von MAEs für Fernerkundungsanwendungen.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Jako... lúc arxiv.org 04-12-2024
https://arxiv.org/pdf/2401.07782.pdfYêu cầu sâu hơn