핵심 개념
계산 모델은 언어 처리 과정에서 인간 뇌의 활성화 패턴과 인지 부하를 효과적으로 포착할 수 있으며, 이를 통해 언어 처리 메커니즘에 대한 통찰을 제공한다.
초록
이 연구는 통계적 언어 모델(SLM), 얕은 임베딩 모델(SEM), 대규모 언어 모델(LLM)이 뇌 언어 처리 연구에 기여하는 방식을 탐구한다.
SLM은 단어 공동 발생 및 구문 구조를 명시적으로 인코딩하여 fMRI-discourse 데이터셋에서 비교 가능한 성능을 보인다. SEM은 정적 의미 표현 학습에 뛰어나며, 눈 추적 데이터셋에서 다른 모델을 크게 능가한다. LLM은 인간과 유사한 행동을 보이며, 새로운 가설 검증과 생성의 기회를 제공한다.
이 모델들은 인지 부하, 의미-구문 표현, 구문 분석 전략, 언어 처리의 구문 구조 등을 연구하는 데 유용하다. 또한 기존 가설을 검증하고 새로운 가설을 생성할 수 있는 잠재력을 지닌다. 그러나 모델 간 공정한 비교를 위해서는 표준화된 데이터셋과 평가 지표가 필요하다.
통계
통계적 언어 모델(N-gram)의 서프라이즈는 fMRI-discourse 데이터에서 0.178, 눈 추적 데이터에서 0.047의 상관관계를 보였다.
대규모 언어 모델(GPT2)의 서프라이즈는 fMRI-discourse 데이터에서 0.112, 눈 추적 데이터에서 0.050의 상관관계를 보였다.
통계적 언어 모델(N-gram)의 엔트로피 감소는 fMRI-discourse 데이터에서 0.092, 눈 추적 데이터에서 0.019의 상관관계를 보였다.
대규모 언어 모델(GPT2)의 엔트로피 감소는 fMRI-discourse 데이터에서 0.042, 눈 추적 데이터에서 0.017의 상관관계를 보였다.
인용구
"All models are wrong, but some are useful." - George E. P. Box