이 논문은 대형 언어 모델(LLM)의 외부 행동과 내부 메커니즘을 탐구하기 위해 타이포글리세미아 현상을 활용한다. 타이포글리세미아는 인간이 단어의 중간 글자가 뒤섞여 있어도 이해할 수 있는 현상으로, 이를 LLM에 적용하여 인간과 유사한 행동을 관찰한다.
실험 결과, LLM은 인간과 유사한 행동을 보이지만 그 근본적인 메커니즘은 데이터 기반의 통계적 접근이며 인간의 인지 과정과는 다르다는 것을 발견했다. 예를 들어, GPT-4의 경우 일부 경우에 오히려 뒤섞인 텍스트에서 성능이 향상되는 현상이 관찰되었는데, 이는 LLM이 단순히 통계적 패턴을 활용하기 때문인 것으로 분석된다.
또한 각 LLM은 고유하고 일관된 "인지 패턴"을 보이는데, 이는 개인마다 고유한 인지 패턴을 가지는 인간과 유사하다. 이를 통해 LLM의 심리학적 메커니즘을 이해할 수 있는 새로운 연구 방향을 제시한다.
In eine andere Sprache
aus dem Quellinhalt
arxiv.org
Wichtige Erkenntnisse aus
by Miao Yu, Jun... um arxiv.org 10-03-2024
https://arxiv.org/pdf/2410.01677.pdfTiefere Fragen