대규모 언어 모델은 개념의 추상화 수준에 따라 서로 다른 층위에서 개념을 습득한다. 즉, 더 복잡한 개념은 더 깊은 층위에서 완전히 습득된다.
다중 보정 기법을 활용하여 대규모 언어 모델의 출력에 대한 해석 가능하고 신뢰할 수 있는 신뢰도 점수를 생성할 수 있다.
대규모 언어 모델의 내부 상태 전이 동역학 분석을 통해 효과적으로 환각을 탐지할 수 있다.
대규모 언어 모델의 계통 관계를 추론하고 벤치마크 성능을 예측할 수 있는 방법을 제안한다.
대규모 언어 모델(LLM)은 방대한 일반 사실 지식을 저장하고 활용할 수 있지만, 이러한 사실 지식의 내부 메커니즘을 설명하는 것은 여전히 활발한 연구 분야이다. 이 연구는 LLM의 잠재 표현에 인코딩된 사실 지식을 시간 지식 그래프를 통해 분석한다.
대규모 언어 모델의 추론 능력은 단순한 정확도 측정을 넘어서 모델의 추론 과정 자체에 대한 심층적인 분석이 필요하다.
대규모 언어 모델의 성능은 사전 학습 데이터의 구성에 크게 의존하며, 다양한 데이터 소스와 유형이 모델의 지식 및 추론 능력에 미치는 영향을 체계적으로 분석할 필요가 있다.
대규모 언어 모델은 다양한 분야에서 뛰어난 성능을 보이지만, 사실적 오류와 불확실성으로 인해 신뢰성이 낮다. 이를 해결하기 위해 모델의 신뢰도를 추정하고 보정하는 기술이 중요하다.
대규모 언어 모델의 학습 데이터에는 개인 정보, 저작권 침해 텍스트, 벤치마크 데이터 등이 포함되어 있어 이로 인한 데이터 누출 문제가 발생하고 있다.