이 연구는 온톨로인 방법론을 활용하여 온톨로지를 정제하는 데 있어 대규모 언어 모델(LLM)의 활용 가능성을 탐구한다. 온톨로인은 온톨로지의 형이상학적 품질을 평가하는 데 중요한 방법론으로, 클래스에 메타속성을 할당하고 일련의 제약 조건을 검증하는 2단계 프로세스로 구성된다. 첫 번째 단계인 클래스 레이블링은 철학적 전문성이 필요하고 온톨로지 전문가 간 합의 도출이 어려워 주된 과제로 여겨진다. 이에 본 연구는 GPT-3.5와 GPT-4와 같은 LLM을 활용하여 이 레이블링 단계를 자동화하는 방안을 제안한다. 두 가지 프롬팅 전략(zero-shot, in-context learning)을 사용하여 실험한 결과, GPT-4가 온톨로인 메타속성 전반에 걸쳐 매우 높은 정확도를 보였다. 이는 LLM을 온톨로지 정제 프로세스에 통합할 수 있는 가능성을 시사한다. 향후 온톨로지 도구에 이를 지원하는 플러그인 소프트웨어를 개발하는 것이 제안된다.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Yihang Zhao,... lúc arxiv.org 03-26-2024
https://arxiv.org/pdf/2403.15864.pdfYêu cầu sâu hơn