Core Concepts
주석 임베딩 모델을 사용한 자기 일치 훈련 방법은 온톨로지 하위 포함 예측의 성능을 향상시킵니다.
Abstract
최근 온톨로지 임베딩은 개체를 저차원 공간에 표현하여 온톨로지 완성에 사용되었습니다.
이 논문에서는 InME 및 CoME 두 온톨로지 임베딩 모델에 대한 자기 일치 훈련 방법을 제안합니다.
실험 결과, InME를 사용한 자기 일치 훈련 방법이 GO 및 FoodOn 온톨로지에 대해 기존의 온톨로지 임베딩을 능가하고, CoME와 OWL2Vec*의 결합이 HeLiS 온톨로지에 대해 더 나은 결과를 보였습니다.
Stats
최근, 온톨로지 임베딩은 저차원 공간에서 개체를 나타내는 데 사용되었습니다.
실험 결과, InME를 사용한 자기 일치 훈련 방법이 다른 온톨로지 임베딩을 능가했습니다.
Quotes
"Ontology embeddings for concept subsumption prediction do not address the difficulties of similar and isolated entities."
"The self-matching training method increases the robustness of the concept subsumption prediction."