이 논문은 관계 정보를 효과적으로 활용하여 지식 그래프 임베딩의 표현력을 높이는 새로운 그래프 신경망 모델인 TGCN(Tucker Graph Convolutional Networks)을 소개한다.
TGCN은 R-GCN의 집계 함수에 Tucker 분해를 적용하여 엔티티와 관계 정보의 통합을 개선한다. 이를 통해 관계 유형에 따라 이웃 엔티티의 표현을 변환하는 저차원 투영 행렬을 학습할 수 있다. 또한 TGCN은 CP 분해를 통해 코어 텐서를 저차원으로 근사화하여 모델 압축과 정규화를 수행한다.
TGCN은 대규모 지식 그래프에서 효율적으로 학습할 수 있도록 대비 학습 기반의 훈련 전략을 도입한다. 실험 결과, TGCN은 FB15k-237과 WN18RR 벤치마크 데이터셋에서 모든 경쟁 모델을 능가하는 성능을 보였다. 특히 저차원 임베딩을 사용함에도 불구하고 우수한 성능을 달성하여 대규모 데이터셋에 적용 가능성을 보여주었다.
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Peyman Baghe... klokken arxiv.org 09-24-2024
https://arxiv.org/pdf/2212.05581.pdfDypere Spørsmål