Core Concepts
본 연구는 지식 그래프 추론을 위한 범용적이고 전이 가능한 표현 학습 방법인 ULTRA를 제안한다. ULTRA는 관계 간 상호작용을 모델링하여 새로운 지식 그래프에 대한 제로샷 추론을 가능하게 한다.
Abstract
본 논문은 지식 그래프 추론을 위한 기반 모델 개발에 대해 다룬다. 기존의 지식 그래프 임베딩 모델들은 특정 지식 그래프에 맞춰진 엔티티 및 관계 표현을 학습하므로 새로운 지식 그래프로의 일반화가 어렵다.
ULTRA는 이러한 한계를 극복하기 위해 제안된 방법이다. ULTRA는 지식 그래프 내 관계 간 상호작용을 모델링하여 관계 표현을 학습한다. 이를 통해 새로운 엔티티와 관계가 등장하는 지식 그래프에 대해서도 제로샷 추론이 가능하다.
구체적으로 ULTRA는 다음과 같은 3단계로 동작한다:
원본 지식 그래프를 관계 간 상호작용을 모델링한 관계 그래프로 변환한다.
관계 그래프 상에서 질의 관계에 대한 상대적 관계 표현을 학습한다.
학습된 관계 표현을 활용하여 엔티티 수준의 링크 예측을 수행한다.
실험 결과, ULTRA는 57개의 다양한 지식 그래프 데이터셋에서 제로샷 추론 성능이 기존 최고 모델 대비 평균 15% 향상되었다. 또한 추가 fine-tuning을 통해 성능이 10% 더 향상되었다. 이를 통해 ULTRA가 지식 그래프 추론을 위한 범용적이고 전이 가능한 기반 모델로 활용될 수 있음을 보였다.
Stats
지식 그래프 데이터셋의 크기는 1,000-120,000개의 엔티티와 5,000-1,000,000개의 엔지를 포함한다.
제로샷 추론 성능이 기존 최고 모델 대비 평균 15% 향상되었다.
추가 fine-tuning을 통해 성능이 10% 더 향상되었다.
Quotes
"Foundation models in language and vision have the ability to run inference on any textual and visual inputs thanks to the transferable representations such as a vocabulary of tokens in language."
"The key challenge of designing foundation models on KGs is to learn such transferable representations that enable inference on any graph with arbitrary entity and relation vocabularies."
"ULTRA builds relational representations as a function conditioned on their interactions. Such a conditioning strategy allows a pre-trained ULTRA model to inductively generalize to any unseen KG with any relation vocabulary and to be fine-tuned on any graph."