Die Studie präsentiert ein hybrides Modell, das Selbstaufmerksamkeit und BiLSTM-Ansätze für die Alters- und Geschlechtsklassifizierung aus Gesichtsbildern kombiniert. Das Modell zeigt eine deutlich höhere Leistung als andere State-of-the-Art-Modelle, mit einer Verbesserung von etwa 10% bei der Altersklassifizierung und 6% bei der Geschlechtsklassifizierung.
Das Modell besteht aus drei Hauptkomponenten:
Die Leistung des Modells wurde mit CNN-basierten Modellen (ResNet50V2, DenseNet121) und einem reinen Transformer-Modell (ViT) verglichen. Das vorgeschlagene Modell zeigte eine höhere Genauigkeit und Resilienz gegenüber Eingaberauschen im Vergleich zu den anderen Modellen.
Die Ergebnisse zeigen, dass das Modell eine generalisierte und robuste Lösung für Alters- und Geschlechtsklassifizierung aus Gesichtsbildern darstellt und als Kernkomponente in verschiedenen Bildverarbeitungs- und Computervisionanwendungen eingesetzt werden kann.
In eine andere Sprache
aus dem Quellinhalt
arxiv.org
Wichtige Erkenntnisse aus
by Aakash Singh... um arxiv.org 03-20-2024
https://arxiv.org/pdf/2403.12483.pdfTiefere Fragen