이 논문에서는 서로 다른 이미지 간의 미세한 특징 유사성을 활용하여 동일한 클래스 내에서 차별적인 특징을 추출하고 서로 다른 클래스에서 중복되는 특징을 제거하여 더 깨끗한 특징을 정제하는 새로운 얼굴 표정 인식(FER) 방법을 제안합니다.
본 논문에서는 기존 얼굴 표정 인식 데이터 세트의 한계점을 지적하고, 이를 개선하기 위해 소프트 라벨링 방법을 제안하며, 이를 기반으로 한 새로운 데이터 세트인 AffectNet+를 소개합니다.
ARBEx는 Vision Transformer 기반의 주의 기반 특징 추출 프레임워크와 신뢰도 균형 기법을 결합하여 얼굴 표정 학습에서 발생하는 클래스 불균형, 편향 및 불확실성 문제를 효과적으로 해결하는 강력한 방법입니다.
본 논문에서는 대규모 고품질 얼굴 표정 데이터 세트 생성을 위한 SynFER 프레임워크를 제안하며, 이를 통해 데이터 부족 문제를 해결하고 다양한 학습 패러다임에서 얼굴 표정 인식 모델의 성능을 향상시키는 것을 목표로 합니다.
본 논문에서는 사전 훈련된 비전 트랜스포머(ViT)를 기반으로 얼굴 표정에서 감정 관련 특징을 분리하고 인식하는 새로운 방법인 PF-ViT를 제안합니다. PF-ViT는 입력 얼굴 표정에서 감정을 제거한 포커페이스를 생성하는 GAN 프레임워크를 통해 학습되며, 이를 통해 감정 인식 성능을 향상시킵니다.
제한적인 얼굴 표정 데이터셋의 문제를 해결하기 위해 MAE-Face 자기 지도 학습 방법과 주의 집중 메커니즘을 융합한 혁신적인 접근법을 제안합니다.
반자지도 학습 기술을 활용하여 얼굴 인식 데이터를 활용해 얼굴 표정 인식 모델의 성능을 향상시키고, 시간적 인코더를 도입하여 동적 얼굴 표정 인식 능력을 높였다.
얼굴 표정 중요 영역을 적응적으로 향상시키는 방법