Khái niệm cốt lõi
다양한 LLM의 어휘 차이를 해결하여 각 생성 단계에서 정교한 앙상블을 수행하는 새로운 방법을 제안한다.
Tóm tắt
이 논문은 다양한 대규모 언어 모델(LLM)을 앙상블하여 그들의 보완적인 잠재력을 발휘하고 개별 강점을 활용하는 방법을 제안한다. 기존 연구는 완전히 생성된 출력을 선택하거나 혼합하는 데 초점을 맞추었지만, 이는 어휘 차이로 인해 제한적이었다.
이 논문에서는 Ensemble via Vocabulary Alignment (EVA)라는 새로운 방법을 제안한다. EVA는 다양한 LLM 간 어휘 격차를 해결하여 각 생성 단계에서 정교한 앙상블을 가능하게 한다. 구체적으로 EVA는 다음과 같은 과정을 거친다:
중복 토큰을 활용하여 다양한 LLM 어휘 간 매핑을 학습한다.
이 매핑을 사용하여 LLM 출력 분포를 통일된 공간으로 투영하고, 이를 기반으로 각 생성 단계에서 세부적인 앙상블을 수행한다.
신뢰할 수 없는 토큰을 생성하는 모델을 제외하는 필터링 전략을 설계한다.
실험 결과, EVA는 개별 LLM과 기존 앙상블 방법에 비해 우수한 성능을 보였다. 또한 분석을 통해 EVA가 다양한 언어 모델의 지식을 효과적으로 활용하여 일관된 성능 향상을 달성할 수 있음을 확인했다.
Thống kê
각 열차는 첫째 날 80마일, 둘째 날 150마일을 주행하여 총 230마일을 주행했다.
첫째 날 160마일, 둘째 날 300마일로 총 460마일을 주행했다.
Trích dẫn
"우리는 현재 4개월 된 당뇨병이 없는 쥐를 가지고 있지만, 그들은 과거에 당뇨병이 있었다."
"첫째 날 80마일, 둘째 날 150마일로 총 230마일을 주행했다."