Core Concepts
최근 대규모 언어 모델을 활용하여 적은 수의 예제로도 시간 표현 정규화 작업을 수행할 수 있음을 보여줌. 문맥 정보와 관련 예제를 활용하여 모델의 성능을 향상시킬 수 있음.
Abstract
이 연구는 시간 표현(TE) 정규화 문제에 대해 대규모 언어 모델(LLM)을 활용하는 방법을 제안합니다. 기존의 규칙 기반 시스템은 특정 환경에 제한적이었고, 최근 기계 학습 접근법은 레이블링된 데이터 부족 문제에 시달리고 있습니다.
이 연구에서는 GPT-3.5-turbo와 Zephyr 모델을 활용하여 인-컨텍스트 학습(ICL) 방식으로 TE 정규화를 수행합니다. 관련 예제를 선별하여 모델에 제공함으로써, 문서 및 예제 정보를 모델에 주입할 수 있습니다. 다양한 예제 선별 전략을 탐구하여 가장 관련성 높은 예제 집합을 검색합니다. 윈도우 기반 프롬프트 설계 접근법을 통해 문장 간 TE 정규화를 수행하면서도 LLM의 지식을 활용할 수 있습니다.
실험 결과, 이 방법은 이 작업을 위해 설계된 모델들과 경쟁력 있는 성능을 보였습니다. 특히 대상 문서가 학습 데이터와 거리가 멀 때 큰 성능 향상을 보였습니다.
Stats
명시적 시간 표현의 경우 대부분 정확하게 정규화할 수 있었습니다.
암시적 및 모호한 표현의 경우 LLM의 세계 지식을 활용하여 잘 정규화할 수 있었습니다.
상대적이거나 불충분한 표현의 경우 문맥 정보가 부족하여 어려움을 겪었습니다.
Quotes
"대규모 언어 모델을 활용하여 적은 수의 예제로도 시간 표현 정규화 작업을 수행할 수 있음을 보여줌."
"문맥 정보와 관련 예제를 활용하여 모델의 성능을 향상시킬 수 있음."