핵심 개념
대규모 언어 모델 (LLM)에서 문법적 제약을 준수하는 텍스트 생성 시, 기존의 방법론들은 모델의 원래 출력 분포를 왜곡하는 문제점을 안고 있으며, 본 논문에서는 이 문제를 해결하기 위해 샘플링 과정을 개선하는 새로운 알고리즘 ASAp를 제시합니다.
초록
문법 정렬 디코딩: 제약된 언어 모델링에서의 편향 문제와 해결 방안
본 연구는 대규모 언어 모델 (LLM)을 사용하여 문법적으로 올바른 텍스트를 생성할 때 발생하는 문제점과 이를 해결하기 위한 새로운 알고리즘을 제시하는 연구 논문입니다.
본 연구는 LLM을 이용한 텍스트 생성에서 문법적 제약을 만족시키면서도 모델의 원래 출력 분포를 유지하는 샘플링 방법을 개발하는 것을 목표로 합니다. 기존의 문법 제약 디코딩 (GCD) 방법은 출력 분포를 왜곡하여 모델의 성능을 저하시키는 문제점을 가지고 있었으며, 본 연구는 이러한 문제를 해결하고자 합니다.
본 논문에서는 문법 정렬 디코딩 (GAD) 이라는 개념을 새롭게 정의하고, 이를 통해 LLM의 출력이 주어진 문법과 일치하도록 제한하면서도 모델의 원래 분포를 따르도록 합니다. 하지만 정확한 GAD는 계산 복잡도 문제로 인해 현실적으로 어렵기 때문에, 본 연구에서는 ASAp (Adaptive Sampling with Approximate Expected Futures) 라는 새로운 알고리즘을 제시합니다. ASAp는 GCD에서 시작하여 점진적으로 LLM의 분포에 수렴하도록 설계되었으며, 효율성과 정확성 사이의 균형을 조절할 수 있도록 합니다.
ASAp는 과거 샘플 출력을 활용하여 특정 출력 접두사에 대한 미래 문법성을 효과적으로 추정하고, 이를 기반으로 샘플링을 수행합니다. 이를 통해 ASAp는 출력이 문법적 제약을 준수하면서도 LLM의 조건부 확률 분포와 일치하도록 보장합니다.