이 논문은 자연어(NL)를 시간 논리(TL)로 변환하는 정확하고 일반화된 프레임워크를 제안한다. 주요 내용은 다음과 같다:
대규모 언어 모델(LLM)을 활용하여 28,000개의 NL-TL 쌍 데이터셋을 구축했다. 이 데이터셋은 다양한 도메인을 포함하며, 기존 데이터셋의 한계를 극복했다.
T5 모델을 이 데이터셋으로 fine-tuning하여 NL을 TL로 변환하는 모델을 개발했다. 이 모델은 기존 방법보다 뛰어난 성능을 보였다.
완전한 NL-TL 변환을 위해 두 가지 방법을 제안했다. 첫째, 변환된 TL에서 원래의 원자 명제(AP)를 인식하는 방법이다. 둘째, 특정 도메인에 대해 추가 fine-tuning하는 방법이다. 이 두 방법 모두 기존 방법보다 뛰어난 성능을 보였다.
실험 결과, 제안한 방법은 다양한 도메인에서 95% 이상의 정확도를 달성했으며, 기존 방법보다 훨씬 적은 양의 도메인 특화 데이터로도 우수한 성능을 보였다.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Yongchao Che... at arxiv.org 03-25-2024
https://arxiv.org/pdf/2305.07766.pdfDeeper Inquiries