이 연구는 통계적 언어 모델(SLM), 얕은 임베딩 모델(SEM), 대규모 언어 모델(LLM)이 뇌 언어 처리 연구에 기여하는 방식을 탐구한다.
SLM은 단어 공동 발생 및 구문 구조를 명시적으로 인코딩하여 fMRI-discourse 데이터셋에서 비교 가능한 성능을 보인다. SEM은 정적 의미 표현 학습에 뛰어나며, 눈 추적 데이터셋에서 다른 모델을 크게 능가한다. LLM은 인간과 유사한 행동을 보이며, 새로운 가설 검증과 생성의 기회를 제공한다.
이 모델들은 인지 부하, 의미-구문 표현, 구문 분석 전략, 언어 처리의 구문 구조 등을 연구하는 데 유용하다. 또한 기존 가설을 검증하고 새로운 가설을 생성할 수 있는 잠재력을 지닌다. 그러나 모델 간 공정한 비교를 위해서는 표준화된 데이터셋과 평가 지표가 필요하다.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Shaonan Wang... lúc arxiv.org 03-21-2024
https://arxiv.org/pdf/2403.13368.pdfYêu cầu sâu hơn