Core Concepts
언어 모델의 문맥 내 학습 능력을 향상시키기 위해 개념 인식 데이터 구축 프레임워크를 제안하고 구현한다.
Abstract
이 논문은 언어 모델의 문맥 내 학습(in-context learning) 능력을 향상시키기 위한 개념 인식 데이터 구축 프레임워크를 제안한다.
먼저, 저자들은 언어 모델의 문맥 내 학습 능력이 모델 규모나 데이터 양과 같은 요인보다는 데이터의 특성에 의해 결정된다는 이론적 연구를 소개한다. 이에 따르면 모델이 데이터에서 잠재적 개념을 학습할 수 있을 때 문맥 내 학습 능력이 향상된다.
이를 바탕으로 저자들은 Concept-aware Training (CoAT) 프레임워크를 제안한다. CoAT는 데모 샘플들이 공유하는 특정 추론 개념을 활용하도록 데이터를 구축하는 방식이다. 이를 통해 모델이 데모에서 새로운 개념을 학습하고 활용할 수 있도록 한다.
실험 결과, CoAT 모델은 기존 모델 대비 새로운 개념을 활용하는 능력이 크게 향상되었다. 또한 CoAT 모델은 기존 모델들이 보였던 의미적 편향에 덜 의존적이었다. 마지막으로 CoAT 모델은 70개 이상의 다양한 과제에서 기존 대규모 다중 과제 학습 모델들과 견줄만한 성능을 보였다.
Stats
언어 모델의 문맥 내 학습 능력은 모델 규모나 데이터 양보다는 데이터의 특성에 의해 결정된다.
모델이 데이터에서 잠재적 개념을 학습할 수 있을 때 문맥 내 학습 능력이 향상된다.
CoAT 모델은 새로운 개념을 활용하는 능력이 기존 모델 대비 크게 향상되었다.
CoAT 모델은 기존 모델들이 보였던 의미적 편향에 덜 의존적이었다.
CoAT 모델은 70개 이상의 다양한 과제에서 기존 대규모 다중 과제 학습 모델들과 견줄만한 성능을 보였다.
Quotes
"언어 모델의 문맥 내 학습 능력은 모델 규모나 데이터 양보다는 데이터의 특성에 의해 결정된다."
"모델이 데이터에서 잠재적 개념을 학습할 수 있을 때 문맥 내 학습 능력이 향상된다."