이 논문은 자연어(NL)를 시간 논리(TL)로 변환하는 정확하고 일반화된 프레임워크를 제안한다. 주요 내용은 다음과 같다:
대규모 언어 모델(LLM)을 활용하여 28,000개의 NL-TL 쌍 데이터셋을 구축했다. 이 데이터셋은 다양한 도메인을 포함하며, 기존 데이터셋의 한계를 극복했다.
T5 모델을 이 데이터셋으로 fine-tuning하여 NL을 TL로 변환하는 모델을 개발했다. 이 모델은 기존 방법보다 뛰어난 성능을 보였다.
완전한 NL-TL 변환을 위해 두 가지 방법을 제안했다. 첫째, 변환된 TL에서 원래의 원자 명제(AP)를 인식하는 방법이다. 둘째, 특정 도메인에 대해 추가 fine-tuning하는 방법이다. 이 두 방법 모두 기존 방법보다 뛰어난 성능을 보였다.
실험 결과, 제안한 방법은 다양한 도메인에서 95% 이상의 정확도를 달성했으며, 기존 방법보다 훨씬 적은 양의 도메인 특화 데이터로도 우수한 성능을 보였다.
Till ett annat språk
från källinnehåll
arxiv.org
Djupare frågor