Das Papier stellt ein Hochleistungs-Vision Mamba UNet (H-vmunet) Modell für die medizinische Bildverarbeitung vor.
Das Modell besteht aus einem Encoder, einem Decoder und einem Skip-Connection-Pfad. Der Kern des Modells ist das Hochordnungs-Visuelle Zustandsraum (H-VSS) Modul, das ein Hochordnungs-2D-Selective-Scan (H-SS2D) verwendet.
H-SS2D kann die hervorragende globale Rezeptivität von 2D-Selective-Scan (SS2D) beibehalten, während es die Einführung von redundanter Information minimiert. Zusätzlich verbessert das vorgeschlagene Local-SS2D Modul die Lernfähigkeit lokaler Merkmale.
Das H-vmunet Modell wurde auf drei öffentlich verfügbaren medizinischen Bilddatensätzen (ISIC2017, Spleen und CVC-ClinicDB) evaluiert und zeigte im Vergleich zu anderen Methoden eine überlegene Leistung. Insbesondere reduziert H-vmunet die Parameteranzahl um 67,28% im Vergleich zum reinen Vision Mamba UNet Modell (VM-UNet).
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Renkai Wu,Yi... at arxiv.org 03-21-2024
https://arxiv.org/pdf/2403.13642.pdfDeeper Inquiries