Core Concepts
전문가들이 기본 얼굴 표정을 평가하는 데 사용하는 공간 행동 단위 단서를 명시적으로 분류기 학습에 통합하여 해석 가능한 심층 모델을 구축하는 학습 전략을 제안합니다.
Abstract
이 논문은 얼굴 표정 인식(FER) 분류기의 해석 가능성을 높이는 새로운 학습 전략을 제안합니다. 전문가들은 기본 얼굴 표정을 평가할 때 공간 행동 단위(AU)의 코드북을 사용합니다. 이 논문에서는 이와 동일한 전문가 접근법을 따르며, AU 단서를 분류기 학습에 명시적으로 통합하여 해석 가능한 심층 모델을 구축합니다.
구체적으로, 입력 이미지의 표정 레이블, 얼굴 랜드마크, AU 코드북을 사용하여 가장 판별적인 관심 영역을 나타내는 단일 AU 히트맵을 구축합니다. 이 유용한 공간 단서를 활용하여 FER을 위한 해석 가능한 분류기를 학습합니다. 이는 이미지 클래스 표정만을 감독으로 사용하고 추가 수동 주석 없이 달성됩니다. 또한 이 방법은 일반적입니다. 아키텍처 변경이나 추가 학습 시간 없이 any CNN 또는 transformer 기반 심층 분류기에 적용할 수 있습니다.
두 공개 벤치마크 RAF-DB와 AffectNet 데이터셋에 대한 광범위한 평가에서 제안된 전략이 분류 성능을 저하시키지 않고 계층별 해석 가능성을 향상시킬 수 있음을 보여줍니다. 또한 Class-Activation Mapping(CAM) 기반 분류기에 대한 연구를 수행하고 학습 기술이 CAM의 해석 가능성을 개선할 수 있음을 보여줍니다.
Stats
얼굴 표정 인식 모델은 종종 정확성만을 목표로 하여 해석 가능성이 부족합니다.
전문가들은 기본 얼굴 표정을 평가할 때 공간 행동 단위(AU) 코드북을 사용합니다.
제안된 방법은 AU 단서를 분류기 학습에 명시적으로 통합하여 해석 가능한 심층 모델을 구축합니다.
이 방법은 이미지 클래스 표정만을 감독으로 사용하고 추가 수동 주석이 필요하지 않습니다.
제안된 방법은 CNN 또는 transformer 기반 심층 분류기에 일반적으로 적용할 수 있습니다.
Quotes
"전문가들은 기본 얼굴 표정을 평가할 때 공간 행동 단위(AU) 코드북을 사용합니다."
"제안된 방법은 AU 단서를 분류기 학습에 명시적으로 통합하여 해석 가능한 심층 모델을 구축합니다."
"이 방법은 이미지 클래스 표정만을 감독으로 사용하고 추가 수동 주석이 필요하지 않습니다."