Die Studie präsentiert ein hybrides Modell, das Selbstaufmerksamkeit und BiLSTM-Ansätze für die Alters- und Geschlechtsklassifizierung aus Gesichtsbildern kombiniert. Das Modell zeigt eine deutlich höhere Leistung als andere State-of-the-Art-Modelle, mit einer Verbesserung von etwa 10% bei der Altersklassifizierung und 6% bei der Geschlechtsklassifizierung.
Das Modell besteht aus drei Hauptkomponenten:
Die Leistung des Modells wurde mit CNN-basierten Modellen (ResNet50V2, DenseNet121) und einem reinen Transformer-Modell (ViT) verglichen. Das vorgeschlagene Modell zeigte eine höhere Genauigkeit und Resilienz gegenüber Eingaberauschen im Vergleich zu den anderen Modellen.
Die Ergebnisse zeigen, dass das Modell eine generalisierte und robuste Lösung für Alters- und Geschlechtsklassifizierung aus Gesichtsbildern darstellt und als Kernkomponente in verschiedenen Bildverarbeitungs- und Computervisionanwendungen eingesetzt werden kann.
翻譯成其他語言
從原文內容
arxiv.org
從以下內容提煉的關鍵洞見
by Aakash Singh... 於 arxiv.org 03-20-2024
https://arxiv.org/pdf/2403.12483.pdf深入探究