Die Studie präsentiert ein hybrides Modell, das Selbstaufmerksamkeit und BiLSTM-Ansätze für die Alters- und Geschlechtsklassifizierung aus Gesichtsbildern kombiniert. Das Modell zeigt eine deutlich höhere Leistung als andere State-of-the-Art-Modelle, mit einer Verbesserung von etwa 10% bei der Altersklassifizierung und 6% bei der Geschlechtsklassifizierung.
Das Modell besteht aus drei Hauptkomponenten:
Die Leistung des Modells wurde mit CNN-basierten Modellen (ResNet50V2, DenseNet121) und einem reinen Transformer-Modell (ViT) verglichen. Das vorgeschlagene Modell zeigte eine höhere Genauigkeit und Resilienz gegenüber Eingaberauschen im Vergleich zu den anderen Modellen.
Die Ergebnisse zeigen, dass das Modell eine generalisierte und robuste Lösung für Alters- und Geschlechtsklassifizierung aus Gesichtsbildern darstellt und als Kernkomponente in verschiedenen Bildverarbeitungs- und Computervisionanwendungen eingesetzt werden kann.
다른 언어로
소스 콘텐츠 기반
arxiv.org
핵심 통찰 요약
by Aakash Singh... 게시일 arxiv.org 03-20-2024
https://arxiv.org/pdf/2403.12483.pdf더 깊은 질문