Die Studie präsentiert ein hybrides Modell, das Selbstaufmerksamkeit und BiLSTM-Ansätze für die Alters- und Geschlechtsklassifizierung aus Gesichtsbildern kombiniert. Das Modell zeigt eine deutlich höhere Leistung als andere State-of-the-Art-Modelle, mit einer Verbesserung von etwa 10% bei der Altersklassifizierung und 6% bei der Geschlechtsklassifizierung.
Das Modell besteht aus drei Hauptkomponenten:
Die Leistung des Modells wurde mit CNN-basierten Modellen (ResNet50V2, DenseNet121) und einem reinen Transformer-Modell (ViT) verglichen. Das vorgeschlagene Modell zeigte eine höhere Genauigkeit und Resilienz gegenüber Eingaberauschen im Vergleich zu den anderen Modellen.
Die Ergebnisse zeigen, dass das Modell eine generalisierte und robuste Lösung für Alters- und Geschlechtsklassifizierung aus Gesichtsbildern darstellt und als Kernkomponente in verschiedenen Bildverarbeitungs- und Computervisionanwendungen eingesetzt werden kann.
翻译成其他语言
从原文生成
arxiv.org
从中提取的关键见解
by Aakash Singh... 在 arxiv.org 03-20-2024
https://arxiv.org/pdf/2403.12483.pdf更深入的查询