이 연구는 통계적 언어 모델(SLM), 얕은 임베딩 모델(SEM), 대규모 언어 모델(LLM)이 뇌 언어 처리 연구에 기여하는 방식을 탐구한다.
SLM은 단어 공동 발생 및 구문 구조를 명시적으로 인코딩하여 fMRI-discourse 데이터셋에서 비교 가능한 성능을 보인다. SEM은 정적 의미 표현 학습에 뛰어나며, 눈 추적 데이터셋에서 다른 모델을 크게 능가한다. LLM은 인간과 유사한 행동을 보이며, 새로운 가설 검증과 생성의 기회를 제공한다.
이 모델들은 인지 부하, 의미-구문 표현, 구문 분석 전략, 언어 처리의 구문 구조 등을 연구하는 데 유용하다. 또한 기존 가설을 검증하고 새로운 가설을 생성할 수 있는 잠재력을 지닌다. 그러나 모델 간 공정한 비교를 위해서는 표준화된 데이터셋과 평가 지표가 필요하다.
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies