Core Concepts
대규모 언어 모델의 문맥 내 학습은 입력-레이블 관계를 학습할 수 있지만, 기존의 학습 방식과는 다른 특성을 보인다.
Abstract
이 논문은 대규모 언어 모델의 문맥 내 학습(in-context learning, ICL) 능력에 대해 조사한다. ICL은 모델 매개변수를 업데이트하지 않고도 입력 예제와 레이블 관계를 활용하여 성능을 향상시킬 수 있다.
그러나 ICL이 어떻게 작동하는지에 대해서는 아직 합의가 없다. 일부 연구자들은 ICL이 일반적인 학습 알고리즘을 구현한다고 주장하지만, 다른 연구자들은 ICL이 실제로 레이블 관계를 학습하지 못한다고 주장한다.
이 논문에서는 ICL의 행동을 체계적으로 조사하여 ICL의 능력과 한계를 밝힌다. 구체적으로:
ICL 예측이 문맥 내 레이블 분포에 의존하는지 확인한다. 실험 결과 ICL 예측은 문맥 내 레이블에 크게 의존한다.
ICL이 사전 학습 선호도를 극복할 수 있는지 조사한다. 실험 결과 ICL은 사전 학습 선호도를 완전히 극복하지 못한다.
ICL이 문맥 내 모든 정보를 균등하게 고려하는지 확인한다. 실험 결과 ICL은 쿼리에 가까운 정보를 더 선호한다.
이를 통해 ICL이 기존 학습 알고리즘과 유사하지만 차이점도 있음을 밝혔다. 이는 향후 대규모 언어 모델의 안전하고 효과적인 활용을 위해 중요한 통찰을 제공한다.
Stats
문맥 내 레이블을 무작위로 대체하면 LLaMa-2-70B 모델의 평균 로그 우도가 유의미하게 감소한다.
새로운 저자 식별 과제에서 LLaMa-2 모델은 무작위 수준보다 훨씬 높은 정확도를 달성한다.
사전 학습 선호도와 문맥 내 레이블 관계가 상충될 때, LLaMa-2-70B 모델의 엔트로피가 여전히 높게 유지된다.
Quotes
"ICL 예측은 거의 항상 문맥 내 레이블에 의존한다."
"ICL은 사전 학습 선호도를 완전히 극복하지 못한다."
"ICL은 문맥 내 모든 정보를 균등하게 고려하지 않는다."