Das vorgeschlagene RS3Mamba-Modell nutzt einen innovativen visuellen Zustandsraum (VSS), um zusätzliche globale Informationen bereitzustellen und die Leistung der konventionellen CNN-basierten Methoden bei der semantischen Segmentierung von Fernerkundungsbildern zu verbessern.
Samba, ein neuartiges semantisches Segmentierungsframework, das auf Mamba basiert, ist speziell für die Segmentierung hochauflösender Fernerkundungsbilder ausgelegt und setzt damit einen neuen Benchmark in der Leistung.
Das vorgeschlagene MetaSegNet-Modell nutzt Metadaten-basierte Textaufforderungen und eine multimodale Vision-Sprache-Architektur, um die Zuverlässigkeit und Generalisierungsfähigkeit der semantischen Segmentierung von Fernerkundungsbildern zu verbessern.