핵심 개념
본 연구는 관계 정보를 효과적으로 통합하여 지식 그래프 임베딩의 표현력을 향상시키는 새로운 그래프 신경망 모델을 제안한다.
초록
이 논문은 관계 정보를 효과적으로 활용하여 지식 그래프 임베딩의 표현력을 높이는 새로운 그래프 신경망 모델인 TGCN(Tucker Graph Convolutional Networks)을 소개한다.
TGCN은 R-GCN의 집계 함수에 Tucker 분해를 적용하여 엔티티와 관계 정보의 통합을 개선한다. 이를 통해 관계 유형에 따라 이웃 엔티티의 표현을 변환하는 저차원 투영 행렬을 학습할 수 있다. 또한 TGCN은 CP 분해를 통해 코어 텐서를 저차원으로 근사화하여 모델 압축과 정규화를 수행한다.
TGCN은 대규모 지식 그래프에서 효율적으로 학습할 수 있도록 대비 학습 기반의 훈련 전략을 도입한다. 실험 결과, TGCN은 FB15k-237과 WN18RR 벤치마크 데이터셋에서 모든 경쟁 모델을 능가하는 성능을 보였다. 특히 저차원 임베딩을 사용함에도 불구하고 우수한 성능을 달성하여 대규모 데이터셋에 적용 가능성을 보여주었다.
통계
지식 그래프 내 엔티티 수: FB15k-237 - 14,541개, WN18RR - 40,943개
지식 그래프 내 관계 수: FB15k-237 - 237개, WN18RR - 11개
학습 데이터셋 크기: FB15k-237 - 272,115개, WN18RR - 86,835개
검증 데이터셋 크기: FB15k-237 - 17,535개, WN18RR - 3,034개
테스트 데이터셋 크기: FB15k-237 - 20,466개, WN18RR - 3,134개
인용구
"본 연구는 관계 정보를 효과적으로 활용하여 지식 그래프 임베딩의 표현력을 높이는 새로운 그래프 신경망 모델인 TGCN(Tucker Graph Convolutional Networks)을 소개한다."
"TGCN은 R-GCN의 집계 함수에 Tucker 분해를 적용하여 엔티티와 관계 정보의 통합을 개선한다."
"TGCN은 CP 분해를 통해 코어 텐서를 저차원으로 근사화하여 모델 압축과 정규화를 수행한다."