이 연구는 온톨로인 방법론을 활용하여 온톨로지를 정제하는 데 있어 대규모 언어 모델(LLM)의 활용 가능성을 탐구한다. 온톨로인은 온톨로지의 형이상학적 품질을 평가하는 데 중요한 방법론으로, 클래스에 메타속성을 할당하고 일련의 제약 조건을 검증하는 2단계 프로세스로 구성된다. 첫 번째 단계인 클래스 레이블링은 철학적 전문성이 필요하고 온톨로지 전문가 간 합의 도출이 어려워 주된 과제로 여겨진다. 이에 본 연구는 GPT-3.5와 GPT-4와 같은 LLM을 활용하여 이 레이블링 단계를 자동화하는 방안을 제안한다. 두 가지 프롬팅 전략(zero-shot, in-context learning)을 사용하여 실험한 결과, GPT-4가 온톨로인 메타속성 전반에 걸쳐 매우 높은 정확도를 보였다. 이는 LLM을 온톨로지 정제 프로세스에 통합할 수 있는 가능성을 시사한다. 향후 온톨로지 도구에 이를 지원하는 플러그인 소프트웨어를 개발하는 것이 제안된다.
На другой язык
из исходного контента
arxiv.org
Дополнительные вопросы