Core Concepts
제안된 JCFA 모델은 레이블이 없는 데이터를 활용하여 EEG 신호의 일반화된 시간-주파수 표현을 추출하고, 이를 통해 교차 코퍼스 EEG 기반 감정 인식 성능을 향상시킨다.
Abstract
이 논문은 교차 코퍼스 EEG 기반 감정 인식을 위한 새로운 JCFA(Joint Contrastive Learning with Feature Alignment) 프레임워크를 제안한다. JCFA는 두 단계로 구성된다:
사전 학습 단계:
시간 및 주파수 기반 임베딩을 추출하고 시간-주파수 잠재 공간에 정렬하는 공동 대조 학습 전략을 도입한다.
이를 통해 레이블이 없는 데이터에서 일반화된 EEG 특징 표현을 학습할 수 있다.
미세 조정 단계:
그래프 합성곱 신경망을 활용하여 뇌 전극의 공간적 특징을 고려한다.
사전 학습된 모델을 소량의 레이블 데이터로 미세 조정하여 감정 분류 성능을 향상시킨다.
실험 결과, JCFA 모델은 두 가지 유명한 EEG 감정 데이터셋에서 기존 방법 대비 평균 4.09% 높은 정확도를 달성하며 최신 수준의 성능을 보여준다. 이는 시간-주파수 도메인 대조 학습과 특징 정렬이 교차 코퍼스 EEG 기반 감정 인식에 효과적임을 입증한다.
Stats
제안된 JCFA 모델은 SEED 데이터셋에서 67.53%의 정확도를 달성하여 기존 방법 대비 7.02% 향상되었다.
JCFA 모델은 SEED-IV 데이터셋에서 62.40%의 정확도를 달성하여 기존 방법 대비 1.16% 향상되었다.
Quotes
"제안된 JCFA 모델은 두 가지 유명한 EEG 감정 데이터셋에서 기존 방법 대비 평균 4.09% 높은 정확도를 달성하며 최신 수준의 성능을 보여준다."
"이는 시간-주파수 도메인 대조 학습과 특징 정렬이 교차 코퍼스 EEG 기반 감정 인식에 효과적임을 입증한다."