Core Concepts
Die Verwendung einer einzelnen Involutions-Schicht neben einem kompakten Convolutions-Modell verbessert die Leistung der Ähnlichkeitssuche erheblich.
Abstract
Die Studie präsentiert ein räumlich optimiertes, kompaktes Deep Metric Learning-Modell für die Ähnlichkeitssuche. Das Modell kombiniert eine einzelne Involutions-Schicht mit mehreren Convolutions-Schichten und verwendet die GELU-Aktivierungsfunktion anstelle von ReLU.
Die Hauptbeiträge der Studie sind:
Einführung eines räumlich optimierten, kompakten Deep Metric Learning-Modells, das Involution und GELU-Aktivierung nutzt
Empirische Analyse unter Verwendung von CE- und MS-Verlustfunktionen auf drei Datensätzen (CIFAR-10, FashionMNIST, MNIST)
Das vorgeschlagene Hybrid-Modell mit einer Involutions-Schicht übertrifft traditionelle Convolutions-basierte Architekturen bei deutlich geringerer Modellgröße
Die Ergebnisse zeigen, dass die Verwendung einer einzelnen Involutions-Schicht die Leistung deutlich verbessert, während der Einsatz von mehr als einer Involutions-Schicht die Leistung verschlechtert. Dies liegt daran, dass mehrfache Anwendung der Involution zu Informationsverlust führt, insbesondere bei komplexeren Datensätzen wie CIFAR-10. Das vorgeschlagene Modell ist sehr kompakt (unter 1 MB) und eignet sich daher gut für den Einsatz in der Praxis.
Stats
Die Verwendung einer einzelnen Involutions-Schicht reduziert die Anzahl der Gewichtsparameter um fast 35% im Vergleich zu einem rein konvolutionalen Modell.
Das vorgeschlage Hybrid-1-Modell hat nur etwa 116.000 Gewichtsparameter, während das ResNet50V2-Modell 23 Millionen Gewichtsparameter hat.
Quotes
"Die Einführung einer einzelnen Involutions-Schicht ist ausreichend, um die Leistung zu steigern, während die Einführung von mehr als einer Schicht die Leistung stattdessen verringert."
"Das vorgeschlagene Hybrid-1-Modell erzielt die zweitbeste Leistung unter den getesteten Modellen, ist aber gleichzeitig das kleinste Modell."