Die Autoren präsentieren ein Multiskalengedächtnisnetzwerk (MLFM), das darauf abzielt, die Beschränkungen von Convolutional Neural Networks (CNNs) bei der Verarbeitung niederfrequenter Informationen zu überwinden.
Zentral ist die Entwicklung einer Niederfrequenzgedächtniseinheit (LFMU), die parallel zum Kernetzwerk arbeitet. Die LFMU speichert verschiedene Formen niederfrequenter Informationen, wie frühe Merkmale, aktuelle Merkmale und Wavelet-Koeffizienten des Originalbildes. Während der Vorwärtspropagation interagiert die LFMU mit den Merkmalen in jedem Downsampling-Schritt, um relevante niederfrequente Informationen für die Aufgabe beizubehalten.
Die Autoren zeigen, dass das MLFM-Netzwerk ohne Änderungen an der Kernstruktur verschiedene populäre CNN-Architekturen wie ResNet, MobileNet, EfficientNet und ConvNeXt deutlich verbessern kann. Darüber hinaus demonstrieren sie die Anwendbarkeit des MLFM-Ansatzes auch für Bildübersetzungsaufgaben wie semantische Segmentierung.
Insgesamt stellt das MLFM-Netzwerk einen wichtigen Schritt dar, um die Leistungsfähigkeit und Effizienz von CNNs mit begrenzten Ressourcen zu optimieren.
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Fuzhi Wu,Jia... kl. arxiv.org 03-14-2024
https://arxiv.org/pdf/2403.08157.pdfDybere Forespørgsler