Die Studie präsentiert ein hybrides Modell, das Selbstaufmerksamkeit und BiLSTM-Ansätze für die Alters- und Geschlechtsklassifizierung aus Gesichtsbildern kombiniert. Das Modell zeigt eine deutlich höhere Leistung als andere State-of-the-Art-Modelle, mit einer Verbesserung von etwa 10% bei der Altersklassifizierung und 6% bei der Geschlechtsklassifizierung.
Das Modell besteht aus drei Hauptkomponenten:
Die Leistung des Modells wurde mit CNN-basierten Modellen (ResNet50V2, DenseNet121) und einem reinen Transformer-Modell (ViT) verglichen. Das vorgeschlagene Modell zeigte eine höhere Genauigkeit und Resilienz gegenüber Eingaberauschen im Vergleich zu den anderen Modellen.
Die Ergebnisse zeigen, dass das Modell eine generalisierte und robuste Lösung für Alters- und Geschlechtsklassifizierung aus Gesichtsbildern darstellt und als Kernkomponente in verschiedenen Bildverarbeitungs- und Computervisionanwendungen eingesetzt werden kann.
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Aakash Singh... kl. arxiv.org 03-20-2024
https://arxiv.org/pdf/2403.12483.pdfDybere Forespørgsler