本論文は、知識グラフ補完(KGC)のための新しいモデルMUSEを提案している。MUSEは、3つの並列コンポーネントを通じて多様な知識を統合することで、エンティティの意味表現を強化し、欠落した関係を正確に予測する。
事前知識学習: BERTを微調整して、エンティティの記述的知識を学習する。これにより、特に情報が限定的な場合に、エンティティ表現を効果的に強化できる。
コンテキストメッセージ伝達: エッジベースのメッセージ伝達メカニズムを使用して、サブグラフ内のコンテキスト情報を強化する。これにより、豊富な情報が利用可能な場合に、関係予測を改善できる。
関係パス集約: エンティティ間のパスを集約することで、関係知識を強化する。これにより、複雑なパス構造を持つ知識グラフでも、正確な関係予測が可能となる。
実験結果は、MUSEが他の手法に比べて優れた性能を示すことを明らかにしている。特に、情報が限定的な場合や、長尾分布の問題が顕著な場合に、MUSEの優位性が際立つ。これは、多様な知識を統合することで、エンティティ表現を効果的に強化できることを示している。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Pengjie Liu at arxiv.org 09-27-2024
https://arxiv.org/pdf/2409.17536.pdfDeeper Inquiries